Физика невозможного
Шрифт:
Во время Второй мировой войны новаторские работы Тьюринга в области расшифровки кодированных сообщений спасли тысячи солдат союзников и, очень может быть, повлияли на исход войны. Союзники, будучи не в состоянии расшифровать нацистские сообщения, зашифрованные специальной машиной под названием «Энигма», попросили Тьюринга и его коллег построить для этого свою машину. В итоге Тьюрингу это удалось; его машина получила название «Бомба». К концу войны действовало уже больше 200 таких машин. В результате союзники долгое время читали секретные сообщения нацистов и сумели обмануть их по поводу времени и места решающего вторжения на континент. Историки до сих пор спорят о роли Тьюринга и его работ в планировании вторжения
Тьюринга не только не вознесли как героя, который помог переломить ход Второй мировой войны; нет, его попросту затравили до смерти. Однажды его дом обокрали, и ученый вызвал полицию. К несчастью, полиция обнаружила в доме свидетельства гомосексуализма хозяина и, вместо того чтобы искать воров, арестовала самого Тьюринга. Суд постановил подвергнуть его инъекции половых гормонов. Эффект оказался катастрофическим: у него выросли груди. В 1954 г. Тьюринг, не выдержав душевных мук, покончил с собой — съел яблоко, начиненное цианидом. (По слухам, надкушенное яблоко, ставшее логотипом корпорации Apple, — дань уважение Тьюрингу.)
Сегодня Тьюринга, вероятно, лучше всего знают благодаря тесту Тьюринга. Устав от бесплодных и бесконечных философских дебатов о том, может ли машина «думать» и есть ли у нее «душа», он попытался внести в дискуссию об искусственном интеллекте четкость и точность и придумал конкретный тест. Он предложил поместить машину и человека в отдельные изолированные и опечатанные помещения, а затем задавать обоим вопросы. Если вы окажетесь не в состоянии отличить по ответам машину от человека, можно считать, что машина прошла тест Тьюринга.
Ученые уже написали несколько несложных программ (к примеру, программа «Элиза»), способных имитировать разговорную речь и поддерживать беседу; компьютер с такой программой способен обмануть большинство ничего не подозревающих людей и убедить их в том, что они разговаривают с человеком. (Отметим, что в разговорах люди, как правило, ограничиваются десятком тем и используют всего несколько сотен слов.) Но программы, способной обмануть людей, которые знают о ситуации и сознательно пытаются отличить машину от человека, до сих пор не существует. (Сам Тьюринг предполагал, что к 2000 г. при экспоненциальном росте производительности компьютеров можно будет создать машину, способную обмануть в пятиминутном тесте 30 % экспертов.)
Некоторые философы и теологи выступают в этом вопросе единым фронтом: они считают, что создать настоящего робота, способного думать как человек, невозможно. Философ из Университета Калифорнии в Беркли Джон Сирл предложил для доказательства этого тезиса «тест китайской комнаты». По существу, Сирл утверждает, что роботы хотя и смогут когда-нибудь, возможно, пройти тест Тьюринга в какой-то форме, это ничего не значит, потому что они всего лишь слепо манипулируют символами, совершенно не понимая вложенного в них содержания.
Представьте себе: вы, не понимая ни слова по-китайски, сидите в изолированном боксе. Предположим, у вас есть книга, при помощи которой вы можете очень быстро переводить с китайского и на китайский, а также манипулировать знаками этого языка. Если кто-то задает вам вопрос по-китайски, вы просто переставляете согласно книге эти странные значки и даете достоверный ответ; при этом вы не понимаете ни вопросов, ни собственных ответов.
Суть возражений Сирла сводится к разнице между синтаксисом и семантикой. По Сирлу, роботы способны овладеть синтаксисом языка (т. е. могут научиться корректно манипулировать его грамматикой, формальными структурами и т. п.), но не его истинной семантикой (т. е. смысловым значением слов). Роботы могут манипулировать словами, не понимая, что они означают. (В чем-то это напоминает разговор по телефону с автоответчиком, когда вы должны время от времени нажимать цифру «1», «2» и т. д., следуя указаниям машины. Голос на другом конце провода вполне способен правильно реагировать на ваши цифры, но странно было бы предположить, что он при этом что-то понимает.)
Физик Роджер Пенроуз из Оксфорда тоже считает, что искусственный интеллект невозможен; механическое существо, способное думать и обладающее человеческим сознанием, противоречит квантовым законам. Человеческий мозг, утверждает Пенроуз, настолько превосходит все созданное человеком в лаборатории, что эксперимент по созданию человекоподобных роботов просто обречен на провал. (Он считает, что как теорема Гёделя о неполноте доказала, что арифметика неполна, так принцип неопределенности Гейзенберга докажет, что машины в принципе не способны думать по-человечески.)
Однако многие физики и инженеры считают, что ничто в законах природы не противоречит созданию настоящего робота. К примеру, Клода Шеннона, которого часто называют отцом теории информации, однажды спросили: «Могут ли машины думать?» Он ответил: «Конечно». Когда же его попросили пояснить ответ, он добавил: «Я думаю, разве не так?» Иными словами, он счел очевидным, что машины могут думать, потому что люди тоже машины (хотя и сделаны из плоти и крови, а не из микросхем и проводов).
Наблюдая за кинематографическими роботами, можно подумать, что создание и развитие сложных роботов с искусственным интеллектом — дело ближайшего будущего. На самом деле все совсем не так. Если вы видите, что робот действует как человек, это, как правило, означает, что дело нечисто, — это какой-то фокус, скажем, в сторонке сидит человек и говорит за робота, как Гудвин в Волшебной стране. На самом деле даже самые сложные наши роботы, такие как марсианские роботы-роверы, обладают в лучшем случае интеллектом насекомого. Экспериментальные роботы знаменитой Лаборатории искусственного интеллекта MIT с трудом справляются с заданиями, доступными даже тараканам: к примеру, свободно передвигаться по комнате, заставленной мебелью, прятаться или распознавать опасность. Ни один робот на Земле не способен понять простую детскую сказку, которую ему прочитают.
Сюжет фильма «2001: космическая одиссея» основан на неверном предположении о том, что к 2001 г. у нас будет сверхробот HAL, способный пилотировать корабль к Юпитеру, непринужденно болтать с членами экипажа, решать возникающие проблемы и вообще действовать почти по-человечески.
Попытки ученых всего мира по созданию роботов встретились по крайней мере с двумя серьезными проблемами, которые не позволили сколько-нибудь заметно продвинуться в этом направлении: это распознавание образов и здравый смысл. Роботы видят гораздо лучше нас, но не понимают увиденного. Роботы слышат гораздо лучше нас, но не понимают услышанного.
Чтобы подступиться к решению этой двойной проблемы, исследователи пытались применить подход к искусственному интеллекту, известный как «сверху вниз» (иногда его еще называют формалистической школой или «старым добрым ИИ»), Целью ученых, грубо говоря, было запрограммировать все правила и законы распознавания образов и здравого смысла и записать эти программы на один CD-диск. Они считают, что любой компьютер, в который вы вставите этот диск, мгновенно осознает себя и станет разумным, не хуже человека. В 50-60-х гг. XX в. в этом направлении были достигнуты громадные успехи; появились роботы, способные играть в шашки и шахматы, решать алгебраические задачи, поднимать с пола кирпичики и т. п. Прогресс производил настолько сильное впечатление, что зазвучали даже пророчества о том, что через несколько лет роботы по разумности превзойдут людей.