Гуманитарное знание и вызовы времени
Шрифт:
ТX1. Это – уровень оригинального теста Тьюринга с учетом ограничений на длину теста, объем компьютерной памяти и скорость вычислений.
ТХ2 – общепринятое понимание теста Тьюринга, который часто называется «друг по переписке». Длина теста равна протяженности человеческой жизни.
ТХ3 – «роботизированная» версия TХ2. Имеется возможность манипуляции предметами внешнего мира. Процедура идентификации систем, которые проходят данный тест, требует принципа «Вскрытие покажет» (принцип Н. Блока), т. е. анатомическое исследование системы. Такой прием часто используется в фантастических фильмах для отличения роботов от людей. При поражении тела робота из него вытекает жидкость зеленого, белого или иного некрасного цвета.
TХ4 – это компьютерные системы, неотличимые как в плане ТХ3-неотличимости, так и в плане микрофизической
Как мы видим, экспертный подход должен пройти уровень ТХ2, робототехнический – уровень ТХ3. Неантропоморфные версии – это уровни TX0-TX3, антропоморфная – ТX4.
В англо-американской философии ИИ в основном преобладает антропоморфный подход, согласно которому ИЛ – это обладающий квазисознанием автономный робот. Экспертная методология не признается такими авторитетными зарубежными философами ИИ, как Дж. Маккарти [239] , А. Сломан [240] . В отечественной же науке, напротив, сложился экспертный подход: ИЛ рассматривается в социально-эпистемологическом контексте междисциплинарных взаимодействий специалистов, в ходе которых формируются «данные», «знания», «смыслы» социокультурного и персонологического содержания. Рассмотрим подробно эти подходы.
239
McCarthy J. Artificial intelligence and philosophy. – Mode of access: http://cogprints.ecs.soton.ac.uk/archive/00000420
240
Sloman A. What sorts of machines can love? Architectural requirements for human-like agents both natural and artificial. – Mode of access: http://www.sbc.org.uk/literate.htm
Искусственная личность – робототехническая система. Искусственная личность – это робот, наделенный квазисознанием и благодаря этому реализующий некоторые персонологические способности и качества человеческой личности. Показательна дискуссия по поводу книги Селмера Брингсйорда «Чем могут и не могут быть роботы» (1992, 1994) [241] . В работе позитивные утверждения относительно проекта ИЛ сопровождаются обстоятельной критикой. Основной девиз работы звучит так: «В будущем робот будет делать все то, что делаем мы, но не будет одним из нас», т. е. он не будет сознательным.
241
Bringsjord S. What robots can and can't be, psycoloquy: 5,#59 Robot Consciousness (1); – Mode of access: http://psycprints.ecs.soton.ac.uk/archive/00000418/#html
С. Брингсйорд доказывает, что: а) когнитивно-компьютерная технология будет производить машины со способностями проходить все более и более сильные версии ТТ, однако: б) проект ИЛ по созданию машины-личности будет неминуемо проваливаться. В защиту (а) предлагается индуктивный вывод при построении версий тестов: тьюринговая игра в имитацию – > наблюдение внешнего вида игроков – > изучение их сенсомоторного поведения – > сканирование мозга и пр. (т. е., по сути, прохождение рассмотренной выше иерархии тестов Харнада). В основе доказательства (б) – несостоятельности проекта ИЛ – лежит modus tollens из суждений: (1) «Проект ИЛ» – > «Личность – это автомат»; – > (2) – «Личность – это автомат»; (3) – «Проект ИЛ». Посылка (2) интуитивно апеллирует к наличию у человека и отсутствию у автомата ряда машинно не воспроизводимых персонологических параметров F, к которым относятся свободная воля, способность к интроспекции, внутренний проективный опыт «каково быть» («what it's like to be») и пр. К F относится и возможность компьютерного воспроизводства творческих способностей, которую автор подробно анализирует в ряде предыдущих работ на основе рассмотрения программ генерации художественных и философских произведений. Убедительно доказывается: «компьютер творить не может!» [242] Общее заключение следующее: (4) «Личность обладает F»; (5) «Автомат не обладает F»; – > (6) «Личность не может быть автоматом». С. Брингсйорд достаточно подробно обосновывает невычислимость F, апеллируя к аргументу Гёделя, «Китайской комнате» Дж. Сёрля, аргументу произвольной множественной реализации Н. Блока и др. Итог таков: «Роботы будут многое делать, однако они не будут личностями».
242
Подход С. Брингсйорда к критике компьютерного творчества явно выражен в аргументе Лавлейс. См.: Брингсйорд С., Беллоу П., Феруччи Д. Творчество, тест Тьюринга и улучшенный тест Лавлейс / Пер. с англ. А. Ласточкина // Тест Тьюринга. Роботы. Зомби / Пер. с англ.; Под ред. А. Ю. Алексеева – М.: МИЭМ, 2006. – С. 62–83.
В полемике по поводу работы С. Брингсйорда, продолженной на страницах сайта(рубрика «Сознание робота»), наблюдается четыре направления критики и поддержки.
I. Проект ИЛ абсурден, так как: 1) метафизические понятия «личность», «свобода воли», «интроспекция» не могут быть предметом эмпирического анализа; 2) нечеткое определение понятия личности, образная иррациональность проекта ИЛ – все это не заслуживает научного внимания; 3) персонологические параметры логически невыразимы – попытки их логической экспликации непременно сопровождаются ошибками.
II. Проект ИЛ неточен, так как: 1) апелляция к интуитивным аргументам разрушает логическую строгость дедуктивных аргументов; 2) нецелесообразно применять дедуктивные умозаключения в качестве метода аргументации (дедукция – не метод, а схема суждений); 3) необходимо четко формулировать конкретную разновидность функционализма как методологического базиса проекта ИЛ – нет функционализма «вообще», а есть, к примеру, низкоуровневый функционализм, биологический функционализм и пр.
III. Проект ИЛ реализуем, так как: 1) человеческая личность – это тоже компьютер, но неклассического типа, т. е. представимый не машиной Тьюринга, а иными, квазиалгоритмическими правилами обработки вычислительных элементов (мы предложили использовать машину Корсакова – Тьюринга); 2) компьютер вовсе не автомат, и кто придерживается противоположного мнения – тому не место в проблематике компьютерного «сознания»; 3) компьютерная система должна тестироваться природой, а не человеком.
IV. Проект ИЛ значим вне зависимости от возможностей его реализации: 1) будет ли создана ИЛ либо не будет создана – не принципиально, главное, что проекты ИЛ выявляют механистические аспекты человеческого сознания; 2) проектирование ИЛ проясняет роль и функции сознания в жизни человека путем постановки вопроса о зомби – о созданиях, не обладающих сознанием, но имеющих все поведенческие способности человека.
Добавим еще один пункт.
V. Исследования естественной личности нерепрезентативны, если они не учитывают исследования проекта искусственной личности. Человек оказался «заброшенным» в компьютеризованный мир, поэтому каноны и стереотипы компьютинговой рациональности более прочно и оперативно, нежели в традиционной культуре, фиксируют и закрепляют у него «искусственное». Для выявления «человеческого собственно человеческого» и предназначен проект искусственной личности – кем он, естественный человек, не должен быть.
Имитация и моделирование естественной личности должны быть соразмерными способами реализации проекта ИЛ. Не надо бросать все силы на построение совершенной имитации, проходящей комплексный тест Тьюринга (как это принято на лойбнеровских состязаниях компьютеров и людей). Но так же не надо доверять онтологической полноте построенной компьютерной модели некоторого частного персонологического аспекта. И совершенно не следует навязывать результаты моделирования личности – пусть очень полного и обоснованного – оригиналу этой модели.