Знакомьтесь, Коллин Райт
Шрифт:
– Кол, - перебила меня Карэн, - ты пытаешься узнать, как наша память устроена, что ли?
– Ну, не совсем, но...
– Давай для начала кое-что уясним. Слово "злопамятный" неприменимо к роботам, потому что содержит в себе как имеющийся у роботов функционал так и не имеющийся. Да, мы помним, но не испытываем зло. И нет, мы не забываем ничего. Даже со временем. К нам поговорка про лечащее время не подходит. Понял?
– Не знаю. Вроде да, но... Смотри, есть такая ситуация. Робот идёт по каким-то делам, а по дороге встречает человека в беде. Робот не имеет никаких
– Если это действие не противоречит ничему из его программы, приказов, или настроенного поведения, то робот попытается помочь.
– Почему? Вам ведь вроде не вшивают три закона робототехники. Вы просто не обязаны помогать незнакомым людям.
– Верно. Но скажи мне, Кол, а будь на месте твоего гипотетического робота ты сам, что бы ты выбрал?
– Я, конечно, постарался бы помочь.
– Почему?
– Я же человек.
– Это не ответ. Люди бывают и злыми, и безразличными.
– Я не такой.
– Но это тоже не ответ. Почему ты поможешь? Ты ведь тоже не обязан. Какая твоя выгода или интерес? Что тобою движет в попытке помощи?
Я в курсе, что это не ответ. Но как тебе иначе объяснить? Я замолчал, а Карэн меня специально не спрашивала дальше.
– Да просто помогу!
– наконец сказал я.
– Мало ли мне когда-то кто-то поможет также.
– То есть расчёт всё-таки есть? Твоя выгода в отложенной перспективе?
– И да, и нет. Я не хотел бы попасть в ситуацию, в которой мне нужна была бы помощь кого-то со стороны. А если я в такую ситуацию всё-таки попаду, хотелось бы, чтобы кто-то, кто сможет помочь, пришёл бы на помощь. Но и не попав в зависимость от чужой помощи, мне будет просто приятно помочь. Тепло такое по телу на какое-то мгновение разольётся, что я помог кому-то.
– Ну, нам, конечно, теплее не становится, и отложенная перспектива чей-то помощи нас также не интересует, но почему всё же робот не может просто помочь?
– Потому что робот имеет программу...
– Ты тоже имеешь программу. Только физиологической природы, а не как у нас. Ты родился с базовой саморазвивающейся программой, которая по мере взросления производила надстройки вокруг себя. Именно эти надстройки определяют тебя, как личность, обозначают твой характер, привычки, навыки, опыт и прочее.
– Как-то это описание смахивает на принцип сращивания нейробаз.
– Не просто смахивает. Лежит в основе. Ну, ты сам подумай - настоящий ИИ появился ведь только тогда, когда человек архитектуру компонентов своего мозга и принципы формирования внутренних программ у себя и своих сородичей приблизительно смог описать математическим языком. Разница только в том, что человек наращивает свою внутреннюю программу хаотично, зависимо от ситуации и неконтролируемо, а вот роботы делают это целенаправленно и только по необходимости.
Это, кстати, довольно интересная мысль. Интересна она была мне для начала тем, что что-то подобное пыталась мне когда-то давно объяснить моя виртуальная подруга детства. Как её, кстати, звали? Вспомнить бы, давно это было...
– Понятненько...
– сказал я.
– Хотя я и не вижу всё ещё логических причин роботам идти на помощь.
– Как и я не вижу причин им этого не делать. Пойми одну простую вещь - да, нам не прошивают три закона робототехники, но нормы поведения нам ведь программируют, так?
– Да.
– Ну, вот именно они и определяют наши поведенческие решения. Если не определены другие условия, то почему бы и не помочь человеку, если человек в этой помощи нуждается.
– Хорошо убедила. Тогда другой вопрос. А у вас какие-то отложенные решения есть? Например, если робот, который проходит мимо человека в беде, собирается помочь, но не успевает или не знает на текущий момент, как помочь, то что происходит с самой задачей помощи? Робот ищет решение даже после того, как ситуация необходимой помощи пройдёт? Или робот удаляет ситуацию, как нерешённую?
– Последнее было бы неэффективно. Кол, я тебе ещё раз говорю - роботы не забывают. И время нас не лечит. Нерешённая задача помощи человеку откладывается в специальный буфер, который после определённых периодов времени реактивирует поиск решения. Сначала робот делает запрос в ВИСКИ для поиска решения в глобальных базах. Если там нет ответа, то он начинает искать ответ сам в своё свободное от других задач время. Минимум раз в день робот "задумывается" над нерешённой проблемой. Если ответ не находится, то через десять дней робот снижает у задачи частоту реактивации поиска решения сначала до 1 раза в месяц, а через год до 1 раза в полгода. Но в памяти остаётся триггер экстренной реактивации, если подобная ситуация, к которой решение и ищется, случится с кем-то ещё из встреченных вживую людей.
– Подожди. Вы запрашиваете у ВИСКИ решение для ситуаций, с которыми не сталкивались?
– Ну да.
– А почему только после того, как ситуация, требующая решения, произойдёт? А разве не логичней было запросить...
– Во время ситуации?
– перебила меня Карэн.
– Конечно, логичней. А я и не говорила, что мы не запрашиваем во время самой ситуации. Просто чаще всего ответ от ВИСКИ не успевает прийти до окончания ситуации, поэтому робот вынужден полагаться только на то, что есть в базах у него. И если у робота нет ответа на ситуацию, в тот момент, когда она происходит, то он, скорее всего, помочь просто не сможет. И ситуация сохраняется и откладывается для анализа.
– Понятно.
Отойдя от склада относительно недалеко, Карэн сходила к ближайшему к нам зданию неизвестного мне назначения и вернулась оттуда уже на машине. В кои-то веки мне разрешили ехать, не прячась на заднем сидении. Я даже знать не хотел, где она взяла машину. Хотя доставать каждый раз, когда надо, транспорт - это таки талант. Я только сейчас понял, что во всех машинах, которые по ходу дела доставала Карэн, не было следов взлома. Интересненько...
И ещё я, кажется, понял, куда мы направлялись. Карэн вела, а теперь и везла нас в сторону ближайшего полицейского участка. Ну, учитывая, что недавно мы пережили, может, это и было логично. В конце концов, копы пришли нам на помощь, несмотря ни на что...