Искусственный интеллект
Шрифт:
2. Часто в нейронную сеть для обучения попадают некорректные данные, которые выглядят как валидные. Например, в медицинской проблемной области нередко случается так, что диагнозы ставятся неверно, лекарственные средства назначаются неадекватно, а потому нет никакой гарантии того, что при обучении нейросети ей не «скармливаются» такие некорректные данные. Принцип GIGO никто не отменял. Кто даст гарантию того, что обученная на некорректных данных нейросеть даст правильное заключение, а инструмента интерпретации того, как она обучилась, нет.
3. В процессе развития человеческих знаний всегда появляется новая информация, которая часто не дополняет, а заменяет старую. Человек-эксперт постоянно актуализирует свои знания, занимаясь самообразованием и повышением квалификации. Как поступать с нейросетью? Ведь невозможно проинтерпретировать то, как она обучилась,
4. Более того, «углеродная» нейросеть фундаментально отличается от «кремниевой» – сегодня ещё не разработано окончательной рабочей модели того, как обучается человек. С учётом непрекращающегося нейрогенеза в отдельных областях головного мозга есть понимание, что в нейросетях в голове человека могут появляться не только новые отдельные нейроны, но и даже целые слои. Впрочем, и нейроны, и слои также могут исключаться из процесса вычислений. И если появление и исключение синаптических контактов можно эмулировать весовыми коэффициентами в искусственных нейронных сетях, то про искусственные модели с появлением новых слоёв пока слышно очень редко и тихо. 5. К тому же центральная нервная система человека представляет собой не обычную многослойную нейросеть, а десятки отдельных сетей, связанных друг с другом. Иногда связанных совсем нелинейным образом – с кучей реципрокных и обратных связей, которые могут выходить и входить в промежуточные слои любой сети. Сигнал от сенсора до исполнительного устройства в человеке может пройти через десяток коммутирующих ядер, запустить параллельные процессы и в итоге так и не дойти до неокортекса, оставшись в подсознательной области.
6. Наконец, что касается неокортекса, где, как предполагается, и скрывается тайна сознания. Обработка информации в нейросети неокортекса может завершиться в любом из шести его слоёв, но только, как считают некоторые исследователи, если сигнал дойдёт до пятого или шестого слоя, он будет доступен для осознания при помощи символьной логики. Вся подсознательная деятельность (можно сказать, что она лежит в основе интуиции) готовит базу для принятия решения на основе механизма манипулирования символами. Именно этот аспект надо рассмотреть более подробно.
Итак, вся накопленная человечеством информация представлена в символьном виде. И именно логическая (синтаксическая) манипуляция символами позволяет делать какие-либо умозаключения. Это совершенно иной подход, фундаментально отличающийся от нейронных сетей, какими бы глубокими они не были. Вполне вероятно, что где-то там в очень глубокой нейросети может зародиться логика манипулирования символами, но пока это неизвестно в силу уже неоднократно упомянутого отсутствия формализма интерпретации работы нейросетей. А с другой стороны, математика предоставляет достаточное число формализмов и инструментов для логической обработки символов.
Символьный подход в искусственном интеллекте сегодня незаслуженно отставлен в сторону. Скорее всего, это произошло из-за раннего разочарования в нём по причине того, что естественный язык как наиболее развитая символьная система, используемая человеком, является очень сложной и плохо формализуемой. Неопределённость высказываний, нечёткость формулировок, разного рода неточность измерений параметров – всё это вносит вклад в повышение сложности принятия решений на основе работы с символьной информацией. И если человек как-то справляется с этим в условиях неопределённости, неполноты и даже противоречивости входной информации, то обучить этому искусственную интеллектуальную систему достаточно сложно. Впрочем, это возможно.
Основная проблема символьного подхода заключается в быстро достигаемом «комбинаторном взрыве» при попытках разобраться в семантике обрабатываемых формул. Большое количество синонимов, нечёткие лингвистические переменные с не до конца определёнными шкалами – всё это отпугивало экспертов и повергало в уныние инженеров. Для того чтобы создать базу знаний для самой простой проблемной области, приходилось либо записывать тысячи правил на все случаи жизни, либо постоянно повышать уровень абстракции представления до того уровня, когда это представление становилось неадекватным решаемым задачам. В качестве примера можно привести базу знаний по выдаче предположений о возможных заболеваниях по общему анализу крови – база содержит более 1000 продукций, но при этом всё ещё не может охватить все возможные случаи, встречаемые в практике.
Однако сегодня
Уже описанный символьный подход в искусственном интеллекте позволяет решить главную проблему, возникающую при использовании искусственных нейронных сетей и эволюционных алгоритмов, – интерпретацию результатов. Структурированные и формализованные знания и вывод на них позволяют осуществить пошаговое объяснение того, как был получен тот или иной результат. Все остальные особенности структурного подхода вполне доступны и в рамках символьного.
И тут хотелось бы отметить, что рождение искусственного интеллекта, скорее всего, произойдёт где-то на стыке двух подходов, т. е. при использовании гибридной парадигмы. Вряд ли в ближайшее время удастся реализовать in silico аналог человеческой нервной системы, поскольку её сложность невообразима. Вероятно, проще вырастить биологическую нейросеть такого объёма, чем найти вычислительные мощности для её симуляции. Однако нейросетевой подход даст базовые инструменты для первичной обработки и коммутации информации, поступаемой с разнообразных сенсоров на вход системе управления и принятия решений в составе искусственного интеллекта. А в ней уже будет использоваться символьный подход, реализованный в виде универсальной машины вывода. И такая конвергенция двух технологий в конце концов позволит реализовать давнюю мечту человека – рождение искусственного разума.
Следующая диаграмма графически показывает общую схему взаимодействия компонентов в гибридной интеллектуальной системе, которая основана на описанных ранее принципах.
Как видно из представленной диаграммы, гибридная искусственная интеллектуальная система представляет собой не что иное, как универсальную кибернетическую машину, которая имеет три основных элемента: аффекторы, подсистему управления и эффекторы. При помощи аффекторов кибернетическая машина воспринимает сигналы окружающей среды, которые обрабатываются в подсистеме управления, сигналы из которой далее поступают в эффекторы, воздействующие на окружающую среду. Это общая схема любого автономного агента, поэтому гибридная искусственная интеллектуальная система одновременно является и интеллектуальным агентом, реализуя уже описанный агентный подход. Однако представленная схема не совсем корректно отражает то, как устроена система принятия решений и реагирования на внешние и внутренние стимулы у человека. Если бы каждый внешний стимул передавался в самую верхнюю систему управления, которая в нашем случае связана с сознательной обработкой информации, то жить и функционировать было бы очень непросто. Даже предварительная фильтрация незначимых стимулов не спасла бы. Так что систему управления желательно разделить на две подсистемы, и тогда общая схема гибридного интеллектуального агента будет выглядеть так, как показано на следующей диаграмме.
Итак, универсальная машина вывода, или подсистема управления, теперь разбита на две части.
1. Реактивная подсистема управления фактически реализует традиционную схему управления, когда сигналы с сенсоров обрабатываются системой управления и по ним осуществляется формирование управленческих воздействий на среду (объект управления) через исполнительные устройства.
2. Проактивная подсистема управления добавляет дополнительный промежуточный уровень, который позволяет осуществлять обучение системы, построение прогноза на основе моделирования среды и своего поведения в ней, построение плана действий и сравнение факта с прогнозом и планом для осуществления обучения (адаптации) системы к изменяющимся условиям внешней среды.