Будущее разума
Шрифт:
Если вы работаете в охранной фирме, обеспечивающей безопасность важных персон, то вам придется объяснить роботу, в каком именно точном порядке ему следует спасать людей в различных ситуациях; при этом вы, вероятно, будете отталкиваться от необходимости, с одной стороны, выполнить контракт, а с другой — удержаться при этом в рамках бюджета.
Что произойдет, если преступник купит робота и захочет, чтобы тот совершил преступление? Возникает вопрос: должен ли робот иметь возможность не подчиниться хозяину, если тот попросит его нарушить закон? Из предыдущего примера мы видели, что роботы должны быть запрограммированы на понимание закона и принятие этических решений. Так что если робот решит, что его просят нарушить закон,
Возникает также этическая дилемма в связи с роботами, отражающими взгляды своих хозяев, которые могут сильно различаться по моральным и социальным нормам. Сегодняшние «культурные войны» в обществе только усилятся, если появятся роботы, разделяющие взгляды и верования хозяев. В определенном смысле этот конфликт неизбежен. Роботы — механическое продолжение мыслей и желаний своих создателей, и когда они станут достаточно сложными, чтобы принимать моральные решения, они будут это делать.
Общество может столкнуться с неочевидными сегодня и неожиданными проблемами, когда роботы начнут демонстрировать поведение, бросающее вызов нашим ценностям и целям. Роботы, принадлежащие юнцам, расходящимся с шумного рок-концерта, могут вступить в конфликт с роботами, принадлежащими пожилым жителям тихого района. Первые, может быть, будут запрограммированы на громкое воспроизведение модной музыки, а вторые — на сохранение тишины. Роботы, принадлежащие набожным людям, могут не сойтись во мнениях с роботами, принадлежащими атеистам. Роботы разных национальностей и культур могут быть сконструированы так, чтобы отражать соответствующие культурные стереотипы, и это понравится далеко не всем (в том числе и людям, не говоря уже о роботах.)
Итак, как нужно программировать роботов, чтобы избежать подобных конфликтов?
Это невозможно. Попросту говоря, роботы неизбежно будут отражать предпочтения и предрассудки своих создателей. В конце концов культурные и этические противоречия между роботами придется разрешать в судах. Никакие законы природы или науки не решат за нас моральные вопросы, так что в итоге для разрешения подобных социальных конфликтов придется писать соответствующие законы. Роботы не смогут решить моральные дилеммы, созданные людьми. Более того, появление роботов может их обострить.
Но если роботы смогут принимать этические и юридические решения, то в состоянии ли они чувствовать и понимать чувства других? Если роботу удастся кого-нибудь спасти, обрадуется ли он этому? Или сможет ли робот хотя бы осознать, что такое красный цвет? Холодный анализ ситуации и решение о том, кого нужно спасать, — это одно, а понимание и сочувствие — совсем другое. Так могут ли роботы чувствовать?
Понимание или чувство?
На протяжении столетий выдвигалось множество теорий о том, может ли машина думать и чувствовать. Философия, которой придерживаюсь лично я, называется «конструктивизм» и состоит в том, что вместо бесконечного обсуждения этого вопроса (а оно бессмысленно) нам следует направить свою энергию на создание реального автомата и посмотреть, как далеко нам удастся зайти. В противном случае мы увязнем в бесконечных философских дебатах, разрешить которые окончательно невозможно. Преимущества науки в том, что, когда все сказано и сделано, можно провести эксперимент и найти решение проблемы.
Таким образом, чтобы понять, смогут ли роботы думать, следует, вероятно, сделать робота и посмотреть, что получится. Некоторые исследователи, однако, заранее уверены, что машины никогда не научатся думать, как люди. Самый сильный их аргумент заключается в том, что, хотя робот способен манипулировать фактами быстрее, чем человек, он не «понимает», что делает. Он может работать с ощущениями (такими как цвет или звук) лучше человека, но не может по-настоящему «чувствовать» или «воспринимать» суть этих
Так, философ Дэвид Чалмерс разделил проблемы искусственного интеллекта на две категории — проблемы простые и сложные. Проблемы простые — это создание машин, способных имитировать все больше человеческих способностей, таких как игра в шахматы, сложение чисел, распознавание определенных закономерностей и т.п. Проблемы сложные включают, в частности, создание машин, способных понимать чувства и субъективные ощущения, так называемые «квалиа».
Точно так, как невозможно объяснить, что такое красный цвет, слепому, так и робот никогда не сможет испытать субъективное ощущение красного цвета, говорят сторонники такой точки зрения. Даже если компьютер и сможет, наверное, быстро перевести китайские слова на английский, он никогда не сможет понять то, что переводит. В этой картине мира роботы напоминают улучшенные магнитофоны или счетные машины, способные воспроизводить информацию и оперировать ею с невероятной точностью, но без всякого понимания.
Эти аргументы следует принимать всерьез, но существует и другая точка зрения на вопрос квалиа и субъективного опыта. В будущем машины, скорее всего, научатся воспринимать такие вещи, как красный цвет, много лучше любого человека. Робот сможет описать физические свойства красного и даже поэтически использовать его в образной фразе. Но «почувствует» ли робот красный цвет? Вопрос лишается смысла, поскольку слово «чувствовать» точно не определено. В какой-то момент, когда сделанное роботом описание красного цвета окажется лучше сделанного человеком, робот сможет с полным правом спросить: а понимают ли люди по-настоящему красный цвет? Может быть, они не в состоянии понять его со всеми нюансами и столь же тонко, как робот.
Как сказал однажды бихевиорист Б. Ф. Скиннер: «Настоящая проблема не в том, думают ли машины, а в том, думают ли люди».
К тому же это только вопрос времени, когда роботы научатся определять китайские слова и использовать их в контексте намного лучше любого человека. В этот момент будет уже неважно, «понимает» ли робот китайский язык. Для практических целей компьютер будет владеть китайским лучше человека. Иными словами, слово «понимать» тоже точно не определено.
Однажды, когда роботы превзойдут нас по способности манипулировать словами и ощущениями, вопрос о том, «понимают» ли они их и «чувствуют» ли, лишится смысла. Это будет уже неважно.
Математик Джон фон Нейман сказал: «В математике не нужно понимать. Нужно просто привыкнуть».
Так что проблема не в «железе», а в природе человеческого языка, в котором слова, не определенные точно, для разных людей означают разное. Великого физика Нильса Бора однажды спросили, как можно понять глубокие парадоксы квантовой теории. Ответ, сказал Бор, заключается в том, как вы определите слово «понять».
Философ Дэниел Деннетт из Университета Тафтса написал: «Объективный тест, который позволил бы отличить умного робота от сознательного человека, невозможен. Так что у вас есть выбор: либо держаться за сложные проблемы, либо покачать головой и забыть о них. Просто перестать о них думать».
Иными словами, сложных проблем нет.
Для конструктивистской философии смысл не в том, чтобы спорить, может ли машина «почувствовать» красный цвет, а в том, чтобы сконструировать такую машину. В этой системе существует континуум уровней, описывающих слова «понимать» и «чувствовать» (это означает, что может оказаться возможной даже численная оценка степени понимания или ощущения). На одном конце шкалы мы имеем неуклюжих сегодняшних роботов, способных манипулировать в лучшем случае несколькими символами. На другом конце — человек, который гордится тем, что ощущает квалиа. Но время идет, и когда-нибудь роботы научатся лучше нас описывать ощущения на любом уровне. Вот тогда-то и станет ясно со всей очевидностью, что роботы понимают.