Наше постчеловеческое будущее: Последствия биотехнологической революции
Шрифт:
Но путать человеческую политику с социальным поведением любого другого вида — значит принимать часть за целое. Только люди умеют формулировать, обсуждать и изменять абстрактные нормы справедливости. Когда Аристотель заявил, что человек по природе есть политическое животное, он говорил это лишь в том смысле, что политика — это возможность, которая возникает с течением времени [294] . Он замечает, что политики не было до тех пор, пока первый законодатель не основал государство и не установил всеобщий закон — событие, которое оказалось величайшим благом для человечества, но для исторического развития было случайным. Это согласуется с тем, что мы сегодня знаем о возникновении государства, которое произошло где-нибудь в Египте и Вавилоне около 10 000 лет назад и вероятнее всего было связано с развитием земледелия. До того люди десятками тысяч лет жили в обществе охотников и собирателей, не знающем государства, где в самой большой группе насчитывалось не более 50—100 особей, в основном связанных родством [295] .
294
Larry Arnhart, Darwinian Natural Right: The Biological Ethics of Human Nature (Albany, N.Y.: State University of New York Press, 1998), pp. 61-62
295
Одним исключением из этого правила представляются туземные племена американского северо-западного тихоокеанского побережья: общество охотников и собирателей, по всей видимости, создавшее государство. См.: Robert Wright, Nonzero: The Logic of Human Destiny (New York: Pantheon, 2000), pp. 31–38.
Однако Аристотель настаивает, что политика естественна для человека, вопреки тому факту, что в ранние периоды человеческой истории она не существовала. Он утверждает, что именно человеческий язык позволяет людям формулировать законы и абстрактные принципы справедливости, необходимые для создания государства и политического строя. Этологи замечают, что многие другие виды общаются с помощью звуков и что шимпанзе и другие виды до определенной степени способны усвоить язык людей. Но ни у одного другого вида нет человеческого языка — то есть возможности формулировать и сообщать абстрактные принципы действия. И только когда эти два свойства— социабельность человека и человеческий язык — соединились, возникла человеческая политика. Язык, очевидно, развивался для усиления возможности общения, но весьма маловероятно, чтобы существовали эволюционные силы, выковавшие его намеренно так, чтобы могла возникнуть политика. Скорее язык похож на пазуху свода [296] Стивена Джея Гульда: он возник по одной причине, но нашел себе совершенно иную главную цель, когда влился в человеческое целое [297] . Человеческая политика, хотя и естественная в состоянии возникновения, не сводится ни к животной социабельности, ни к животному языку, которые ей предшествуют.
296
Пазуха свода — архитектурный элемент, возникающий без намерения архитектора, на пересечении купола и поддерживающих его стен. — Примеч. автора.
297
Stephen Jay Gould and R.C. Lewontin, "The Spandrels of San Marco and the Panglossian Paradigm: A Critique of the Adaptionist Programme", Proceeding of the Royal Society of London 205 (1979): 81–98.
Сознание
Область, в которой наиболее ярко проявляется неспособность современной редукционистской науки объяснить наблюдаемые явления, — это вопрос человеческого сознания. Под сознанием я понимаю субъективные ментальные состояния: не просто мысли и образы, которые появляются у вас, когда вы думаете или читаете эту страницу, но и ощущения, чувства и эмоции, испытываемые вами в повседневной жизни.
За последние лет пятьдесят появилось колоссальное количество работ и теорий о сознании, в равной мере порожденных науками о высшей нервной деятельности и исследованиями компьютерной техники и искусственного интеллекта (AI). В последней области особенно много энтузиастов, убежденных, что с наличием более мощных компьютеров и новых подходов к вычислительным процессам, например теории нейронных сетей, мы вот-вот добьемся прорыва, в результате которого компьютеры обретут сознание. Проводились конференции и серьезные дискуссии по вопросу о том, будет ли моральным выключить такую машину — если и когда произойдет этот прорыв — и надо ли будет давать права обладающим сознанием машинам.
Но на самом деле мы даже близко не подошли к подобному прорыву: сознание упрямо остается той же загадкой, что и было всегда. Проблема современной мысли начинается с традиционной философской проблемы онтологического статуса сознания. Субъективные ментальные состояния, хотя и порожденные материальными биологическими процессами, имеют, очевидно, совсем иной, нематериальный порядок в отличие от других явлений. Страх перед дуализмом — то есть учением о том, что существуют два по сути различных вида бытия, материальное и ментальное — так силен среди ученых в этой области, что приводит их к явно смехотворным выводам. Говоря словами философа Джона Сирла:
Рассматриваемые в ретроспективе последних пятидесяти лет, философия разума, как и наука о познании и некоторые ветви психологии, разыгрывают весьма любопытный спектакль. Наиболее поразительно — насколько многое из того, что лежит в главном русле философии разума последних полувека, кажется очевидно ложным… в философии разума очевидные факты о ментальном, вроде того, что у нас действительно есть субъективные сознательные ментальные состояния, и что их не заменить ничем другим, привычно отрицаются многими, если не большинством, передовых мыслителей, пишущих на эту тему. [298]
298
John R. Searle, The Mystery of Consciousness, (New York: New York Review Books, 1997).
Пример заведомо ложного понимания сознания дает нам один из ведущих экспертов в этой области, Дэниел Деннет, книга которого "Сознание объясненное" приходит в конце концов к следующему определению сознания:
Человеческое сознание само есть огромный комплекс мемов (точнее, действий мемов в мозгу), что лучше всего можно представить себе как работу некоей "фон-неймановской" виртуальной машины, реализованной в параллельной архитектуре мозга, который не был спроектирован в расчете на такую работу. [299]
299
Daniel C. Dennett, Consciousness Explained (Boston: Little, Brown, 1991), p. 210.
Наивному читателю можно простить, если он подумает, что утверждение подобного рода мало продвигает нас вперед в понимании сознания. Деннет на самом деле говорит, что человеческое сознание есть всего лишь побочный продукт работы компьютера определенного типа, и если мы думаем, что это еще не все, то мы придерживаемся ошибочно старомодного взгляда на то, что такое сознание. Как говорит о таком подходе Сирл, он действует, только если отрицать существование того, что мы с вами и каждый прочий понимаем под сознанием (то есть субъективных чувств) [300] .
300
John R. Searle, The Rediscovery of the Mind (Cambridge, Mass.: MIT Press, 1992), p. 3.
Аналогично многие исследователи в области искусственного интеллекта обходят вопрос о сознании путем фактической подмены темы. Они предполагают, что мозг есть просто органический компьютер большой сложности, который можно идентифицировать внешними характеристиками. Известный тест Тьюринга утверждает, что если машина может выполнять познавательные задачи, такие как поддержание беседы так, чтобы внешне это нельзя было отличить от тех же действий, совершаемых человеком, то внутренне она тоже от человека отличаться не будет. Почему это должно быть адекватным тестом ментальности человека — загадка, поскольку машина точно не будет иметь никакого субъективного осознания своих действий, как и связанных с ними чувств(Критика этого подхода содержится у Сирла в его загадке "Китайская комната", где поднимается вопрос, можно ли сказать, что компьютер понимает китайский язык лучше, чем не говорящий по-китайски человек, сидящий в запертой комнате и получающий инструкции, как обрабатывать ряд символов китайского языка. См. Searle (1997), р. 11. — Примеч. автора.). Это не мешает таким авторам, как Ганс Моравец [301] и Рей Курцвайль [302] , предсказывать, что машины, достигнув должного уровня сложности, получат и такие человеческие свойства, как сознание [303] . Если они правы, то это будет иметь серьезные последствия для нашей концепции человеческого достоинства, поскольку будет логически доказано, что люди суть не более чем сложные машины, которые можно делать из кремния и транзисторов не хуже, чем из углерода и нейронов.
301
Hans P. Moravec, Robot: Mere Machine to Transcendent Mind (New York: Oxford University Press, 1999).
302
Ray Kurzweil, The Age of Spiritual Machines: When Computer Exceed Human Intelligence (London: Penguin Books, 2000).
303
ритику этого положения см.: Colin McGinn, "Hello HAL", The New York Times Book Review, January 3, 1999.
Вероятность, что это случится, кажется весьма далекой, и не столько потому что машины никогда не смогут иметь разум, равный человеческому (я подозреваю, что в этом отношении они подойдут к нему весьма близко), но потому что невозможно вообразить, будто они обретут человеческие эмоции. Это в научной фантастике андроид, робот или компьютер вдруг начинают испытывать страх, надежду и даже половое влечение, но никто еще и близко не подошел к объяснению, как такое может случиться. Проблема здесь не только в том, что никто еще не понял, что представляют собой эмоции (как и сознание) онтологически; никто не понял, почему они начали существовать в биологии человека.
Конечно, есть функциональные причины для существования таких эмоций, как боль и удовольствие. Если бы секс не был нам приятен, мы бы не стали размножаться, а если бы мы не испытывали боль от огня, мы бы то и дело обжигались. Но в современном течении науки о познании считается, что конкретная субъективная форма, принимаемая эмоциями, не является необходимой для их функций. Вполне возможно, например, построить робота, у которого датчики в пальцах будут соединены с актуатором, убирающим руку робота от огня. Робот сможет предотвратить сгорание пальцев без всякого чувства боли и будет способен принимать решения, какие цели преследовать и каких действий избегать, путем математической обработки входных сигналов от разных датчиков. Тест Тьюринга скажет нам, что он по своему поведению — человек, но на самом деле этот робот будет лишен самого важного свойства человека — чувств. Конкретная субъективная форма, которую принимают эмоции, в современной биологии и теории познания рассматривается всего лишь как эпифеномен функций, на которых они основаны: нет никаких объективных причин, чтобы именно такая их форма должна была быть выбрана в процессе эволюционной истории [304] .
304
Критику этого положения см.: Colin McGinn, "Hello HAL", The New York Times Book Review, January 3, 1999.