Fохтаун
Шрифт:
Атир с минуту молча смотрел в окно. Потом он выключил коммуникатор и убрал его во внутренний карман пиджака.
– А вы умеете поднять настроение, – сказал он и выпил наконец чаю, который до этого стоял нетронутым. – Алгоритмы… Это просто название процессов, происходящих по заданному сценарию в процессоре машины. Просто этот сценарий предполагает свободу выбора машины в том, что делать после обработки информации. Представьте себе, что отдаёте команду роботу. Это может быть любая команда.
– Хорошо, – включился в обсуждение Киэй. – К примеру, я решил похвалить робота-помощника за то, что он сообщил мне прогноз погоды. Я говорю ему: «Молодец,
– Что? – удивился Атир. – Что это за команда такая? Вы так говорили своему роботу-помощнику?
– А что в этом такого?
– Это странно! – смутился Атир. – Хотя погодите! Вот ведь оно! Великолепно!
Атир залпом осушил кружку чаю и с грохотом шлёпнул её об стол. Люди за соседними столиками обернулись.
– Давайте отмотаем немного назад, к тому моменту, когда вы попросили у робота сообщить прогноз, – воодушевлённо начал молодой сыщик. – Ваша просьба для робота – сигнал. Процессор преобразовывает его в импульс. Импульс должен быть обработан. Представьте, что из процессора выходит одна условная труба, по которой этот импульс отправляется на обработку. Обрабатывается он во втором процессоре. Но там уже два отсека. В одном отсеке обрабатываются импульсы, требующие каких-либо действий, а в другом – требующие вербальных, поведенческих или эмоциональных реакций.
– Разве вербальный ответ нельзя считать действием? – спросил Киэй.
– Можно. Но только в том случае, если этот ответ передаёт вам какую-нибудь информацию. Если ответ информативен. Если же ответ не будет нести смысла или информации, то робот не посчитает его полезным действием.
– Если я спросил о погоде, то от робота требуется устный ответ, – предположил Киэй.
– Не совсем так. От робота просто требуется ответ. А какой ответ он даст, зависит от развилки. Что такое развилка? Это как раз место между трубой, выходящей из первого процессора, и двумя трубами, входящими в два отсека второго процессора. В этом месте происходит парадокс выбора. Условный процесс, при котором активируется тот самый искусственный интеллект. Первая его фаза. Здесь на основе изначальной программы и впоследствии – на основе полученного опыта интеллект создаёт связь между возможной реакцией из базы данных и импульсом. Робот знает, что должен дать вам ответ. Он выбирает действие – и тогда импульс попадает в отдел, отвечающий за конкретные действия. Импульс обрабатывается, и в итоге мы имеем результат: робот рассказывает вам о погоде.
– В этом случае вербальный ответ робота – это конкретное действие? – переспросил Киэй.
– Верно. Рассмотрим иной вариант событий: робот выбирает не отвечать вам. Почему бы ему так делать? К примеру, вы вели себя цинично при нём, и он записал в базу данных такое поведение. Теперь у него есть вариант не ответить вам, а просто подойти к окну, раздвинуть шторы и указать на улицу, мол, «сам посмотри на небо и не задавай глупых вопросов».
– И теперь, даже подойдя к окну и двигая занавески, робот не рассматривает свою активность как конкретные действия?
– Именно! – обрадовался Атир. – Искусственный интеллект робота сам решает, что ему считать действием, а что – эмоциональной реакцией. Это парадокс выбора. С одной стороны, выбор основывается на изначально заложенных данных и на основе полученного опыта. С другой – искусственный интеллект не имеет алгоритма выбора одного из вариантов. Этот алгоритм он вырабатывает сам, основываясь не на случайных числах, а на собственном представлении об адекватности, которое, в свою очередь, базируется на опыте и изначальных данных.
– Поразительно! – закачал головой Киэй.
– Нет! Это не поразительно! Поразительно то, что происходит в блоке, в котором обрабатываются импульсы, требующие вербальных и эмоциональных реакций.
– Давайте назовём его «Блок Б» для удобства, – предложил Киэй.
– Согласен. С «Блоком А» всё ясно и так. Там требуется действие, и искусственный интеллект выбирает самый логичный вариант из возможных. Этот «Блок А» и разработал отец Асторы Бунди. А вот «Блок Б» – для всех в корпорации «Галах» загадка. Дело в том, что изначальный код ничтожно мал. Но это именно тот код, который интеллект может сам себе переписать. У корпорации есть только сжатый, готовый для внедрения файл, отвечающий за функциональность. Все эти годы файл просто вставляли в программу, и он работал. Поэтому в корпорации никто особо на него не обращал внимания. А вот вне её все просто с ума сходят от этого кода. Представляете, разумной машине дали возможность изменять свой код, а она этого не делает. Точнее, не подаёт признаков того, что она это делает. Машина обучается, но файл кода никогда не изменяется. Он остаётся неизменного объёма. То есть, как именно робот «запоминает» новые алгоритмы и где их хранит, мы не знаем. Есть даже виртуальные сообщества, где люди годами пытаются понять механизм использования этого кода машиной. Я копался на тамошних форумах и в группах. Эти дельцы утверждают, что приблизились к решению своей задачи менее чем на пять процентов. Но вернёмся к вашему роботу-помощнику. Вы послали его взять с полки пирожок.
– Да. После этого он отправился на кухню, а через минуту вернулся и сообщил, что у нас нет пирожков.
– Это потому, что в его базе данных, основанной на опыте, не было примеров того, как реагировать на такую шутку. Поэтому он расценил это как импульс, требующий действия, и отправился совершать это действие. Но если бы опыт робота был больше, то ваша жесть направила бы этот импульс в «Блок Б».
– И что тогда? – с нетерпением спросил Киэй. – Тогда он бы выдал что-то вроде смеха, так?
– Да. Скорее всего, он посмеялся бы. А может, и нет. Он сделал бы нечто, приписанное тем изначальным кодом, который он, в теории, изменил, для выдачи вам соответствующих реакций.
– Постойте! – схватился за лоб Киэй. – Так машина переписывает этот маленький код или нет?
– Нет, не переписывает. Хотя имеет на это полномочия. Однако роботы совершенствуются! Это факт. То есть где-то они что-то записывают. Но где, нам пока непонятно.
– А что если этот код – нечто вроде словаря? Старого такого, ещё в виде книги. Есть слово на человеческом языке и перевод на язык искусственного интеллекта. А в конце словаря добавлены грамматические правила.
– Интересная аналогия. Да, это похоже на словарь, но только на такой словарь, где напротив каждого слова на нашем языке не стоит перевод, а повторяется одно и то же слово на языке искусственного интеллекта.
– Какое?
– В этом и загадка! – пожал плечами Атир. – Если бы это был русско-английский словарь, то там напротив каждого слова было бы написано «английский язык». Здесь речь не о языке, а о каком-то другом понятии. О чём-то глобальном, описывающем все наши чувства, импульсы и перемены настроения. Когда меня осенила эта догадка, я и запросил в помощь лингвиста.