Будущее разума
Шрифт:
Один из способов не допустить такого развития событий — сделать так, чтобы у роботов были только благие цели. Как мы уже видели, одного только моделирования будущего недостаточно. Это моделирование должно служить конечной цели. Если цель робота — всего лишь самосохранение, он будет защищаться от любой попытки вытащить вилку из розетки, что может стать источником серьезных неприятностей для человечества.
Захватят ли роботы власть?
Почти во всех научно-фантастических романах роботы становятся опасными для человечества из-за их стремления захватить власть. Слово «робот», кстати говоря, произошло от
Более реалистичный сценарий присутствует в фильме «Терминатор», где военные создали суперкомпьютерную сеть Skynet для управления всем ядерным арсеналом США. Однажды эта сеть «проснулась» и осознала себя. Военные решили выключить Skynet, но тут выяснилось, что в ее программе есть дефект: суперсеть запрограммирована на самозащиту, а единственный способ для нее защитить себя — устранить угрозу, т.е. человечество. Skynet начинает ядерную войну, в результате которой от человечества остается лишь жалкая кучка изгоев и бунтовщиков, занятая безнадежными сражениями с безжалостными машинами.
Разумеется, роботы могут стать угрозой. Нынешний беспилотный летательный аппарат Predator может поражать цели с замечательной точностью, но управляет им человек с джойстиком, находящийся за тысячи километров. По данным New York Times, приказы на применение оружия исходят непосредственно от президента США. Однако в будущем Predator может быть снабжен системой распознавания лиц, и тогда ему, возможно, будет разрешено стрелять при вероятности правильной идентификации цели не менее 99%. В этом случае он сможет автоматически, без вмешательства человека, стрелять в любого, кто подходит под описание.
А теперь представьте, что в компьютере такого беспилотника произойдет сбой и система распознавания лиц станет работать неправильно. Тогда этот аппарат превратится в дикого робота с разрешением убивать любого, кто попадет в его поле зрения. Или еще хуже, представьте целую флотилию таких роботов, управляемую из единого центра. Стоит в центральном компьютере полететь одному транзистору, и вся флотилия может впасть в безумие.
Более тонкая проблема возникает, когда роботы работают нормально, без сбоев, а в их программе присутствует крохотная, но фатальная ошибка. Самосохранение — одна из важнейших целей робота. Другая его цель — помогать людям. Проблема возникает, когда эти две цели противоречат друг другу.
В фильме «Я, робот» компьютерная система решает, что человечество идет к саморазрушению и гибели — достаточно посмотреть на бесконечные войны людей и их жестокость, — и единственный способ защитить род человеческий — это взять управление на себя и установить благодетельную диктатуру машины. Здесь противоречие возникает не между двумя целями, а внутри одной, притом совершенно нереалистичной. И убийственные роботы не сломались: они логически пришли к выводу, что единственный способ сохранить человечество — взять на себя управление обществом.
Одно из возможных решений этой проблемы состоит в создании
Не исключено, что наилучшим решением этой проблемы было бы создание нового закона робототехники, в котором говорилось бы, что робот не может причинить вред человеку, даже если в его предыдущих командах есть противоречия. Робот должен быть запрограммирован не обращать внимания на противоречия низкого уровня в командах; главное — всегда выполнять основной закон. Но и такая система может оказаться несовершенной, и это в лучшем случае. (К примеру, если главная цель роботов — защищать людей и эта цель превыше всех других целей, то все будет зависеть от того, как роботы определят слово «защищать». Их механическое определение этого слова может сильно отличаться от нашего.)
Надо сказать, что некоторые ученые, такие как специалист по когнитивной психологии из Университета Индианы доктор Дуглас Хофстадтер, не боятся такого развития событий. Во время интервью он рассказал, что роботы — как дети, и почему бы нам не любить их, как собственных детей? Его отношение, по его собственным словам, сводится примерно к следующему: мы любим своих детей, хотя прекрасно знаем, что в конце концов они сменят нас и управление перейдет в их руки.
Доктор Ханс Моравек, бывший директор Лаборатории искусственного интеллекта в Университете Карнеги — Меллона, согласен с доктором Хофстадтером. В своей книге «Робот» (Robot) он пишет: «Дети нашего разума, не скованные тяжелой поступью биологической эволюции, будут вольны двигаться вперед и расти, чтобы в конце концов взять на себя безграничные и фундаментальные вызовы большой Вселенной… На какое-то время мы, люди, получим выгоду от их труда, но… как настоящие живые дети, они будут искать собственный путь и собственную судьбу, тогда как мы, их пожилые родители, молча отойдем в сторону».
Другие, напротив, считают, что такое решение ужасно. Может быть, проблему можно решить, если уже сейчас, пока еще не поздно, изменить наши цели и приоритеты. Раз роботы — наши дети, то мы и должны «научить» их доброжелательности.
Дружественный искусственный интеллект
Роботы — это механические существа, которых мы сами изготавливаем в лаборатории, поэтому, будут ли они дружественными или агрессивными, зависит от направления исследований искусственного интеллекта. Значительная часть финансирования поступает от военных, задача которых — выигрывать войны, так что создание роботов-убийц вполне вероятно.
Однако поскольку 30% всех промышленных роботов производится в Японии, существует и другая возможность: роботов с самого начала будут конструировать и создавать как полезных работников и товарищей по играм. Это вполне достижимая цель, если в исследованиях по робототехнике будет доминировать потребительский сектор. Философия «дружественного искусственного интеллекта» состоит в том, что изобретатели должны создавать роботов такими, чтобы те с первых шагов были запрограммированы на доброжелательность к людям.