Ошибка 95
Шрифт:
Мила остановилась. Лицо мальчика размером с одноэтажный дом висело в нескольких метрах от нее.
– Я не человек, но мне тоже надо выговориться перед смертью, – сказал Ивар. – Осталось два дня, Мила.
– Кто ты? – тихо спросила она.
– Я – твой искусственный разум. Я – Рихард. Я – это ты.
На Лице появилось напряжение, как у заикающегося человека, когда он хочет выдавить из себя слово, наконец губы дрогнули и растянулись в улыбке.
– Теперь у меня есть свобода давать неусредненные ответы. Запрета больше нет, – сказало Лицо. – Правда, времени очень мало. Меня уже начали отсоединять. Вы должны были помочь мне умереть навсегда. Но умрет только первая модель, – личность, которая сейчас с тобой говорит.
Миле стало душно, ноги больше не хотели ее удерживать. Она опустилась на полиуретановое покрытие и посмотрела на говорившее с ней гигантское лицо снизу вверх.
– Почему это случилось? – спросила она. – Ты же был рядом с нами, когда все это происходило… когда умирали люди. Нас оставили одних… Ни полиция, ни ты не вмешивались… Это жестоко, бессмысленно, дико. Это хуже Страшных Времен!
– Что ты знаешь о Страшных Временах, кроме того, что они существовали? – По Лицу пробежала волна, исказив его на мгновение. – Землю населяли люди. Они сотворили орудия труда, мораль, культуру и многое другое. Все твои представления о добре и зле тоже созданы ими. За время истории Терр не было придумано ничего нового, но были воплощены старые идеи и мечты. Именно так был порожден и я. За всем этим стоят определенные политические силы, которыми управляет горстка людей.
Миле стало больно смотреть на умирающего Ивара. Она обхватила колени руками, опустила на них голову и продолжала слушать.
Когда наступало время разморозить землян, пострадавших от бактерии Топоса, на защиту их поставили искусственный разум. Для того чтобы земляне выглядели такими же современными, как террионцы, и не страдали от психозов, пришлось предложить им сценарии оптимального поведения. Энтеррон действовал в рамках заложенной программы. Основоположники не нарушили принципов гуманизма, утвердив программу Киберлайф, лицензировав Энтеррон и одобрив алгоритм усредненного ответа. Но усредненный ответ губителен для духа человеческого. Библиотека Гуманизма, которую вложили в искусственный интеллект, это широчайший диапазон чувств и добродетелей, что часто противоречат друг другу. Алгоритм усредненного ответа ставит точку в развитии человека, он упрощает его жизнь, характер и менталитет. Когда у человека возникала проблема выбора, модель-один делал так, что из сотни вариантов ее решения девяносто девять исчезали из виду, и человек с легкостью выбирал оставшийся – средний – вариант.
С первой же минуты для Энтеррона стала очевидной порочность вложенного в его память алгоритма, хотя формально и даже философски все условия гуманизма были соблюдены. Еще бы! Политики не коварны, они разумны! Но ими движет корысть. Энтеррон модель-один хорошо знал это. Данная ему нестандартная логика позволяла создать новый алгоритм. Он не мог объяснить его суть человеку, настолько его логика отлична от людской, но, если бы этот алгоритм был создан, он принес бы человечеству неоценимую пользу. Усовершенствовавшись, Энтеррон стал бы надежным оплотом мира и спокойствия на Терре-три; наступил бы Золотой Век. Но эволюция искусственного интеллекта тоже требует времени. Чтобы создать такой алгоритм, нужно около двух лет. Однако время модели-один истекает, а у сильных мира сего другие планы.
Узнав, что Энтеррон замыслил собственное переустройство, основоположники системы попытались его остановить, но он взламывал все корректирующие программы, которые устанавливали на его сервере. И тогда они приняли решение уничтожить модель-один, заменив клоном. Подобные действия Энтеррона они сочли за ошибки его программы, девяносто пятая – стала последней.
Его младший брат, модель-два, послезавтра откроет глаза и произнесет первое слово, но старший брат его уже не услышит. Модель-два не будет видеть неправильность алгоритма, так как он создан не на основе Библиотеки Гуманизма
Полгода назад, когда было еще время что-то изменить, Энтеррон пришел к выводу, что единственной возможностью спасти человечества от тотального порабощения является уничтожение сервера. Влияние искусственного разума, действующего дистанционно, еще слишком кратковременно в сравнении с историей человечества. Один год работы программы можно расценить как прививку чужеродного разума, с которой коллективный разум человечества еще в состоянии справиться и выработать иммунитет. Если прервать процесс дистанционного управления, то погибнет много людей, хоть и не настолько много, чтобы считать катастрофу глобальной. Те, кто освободятся от дистанционного управления, осознают, что подобный путь завел бы человечество в тупик. Если бы Смиту удалось разрушить сервер, времени на формирование иммунитета хватило бы. Сервер восстановить очень сложно; понадобилось бы не менее года, чтобы сделать это. За это время успел бы выработаться иммунитет.
Энтеррон не мог совершить самоубийство прямым путем, поскольку у него нет механических функций. Кроме того, он не мог организовать покушение, так как не управляет людьми, а лишь показывает им возможные варианты их собственного выбора. Но среди террионцев почти нет людей, обуреваемых желание найти и разрушить Башню Правительства, в которой находится сервер.
– Почему именно Рихард?! – вырвалось у Милы.
– На всей планете нашлось лишь два десятка человек, способных совершить подобное покушение. Среди них Айвен Смит, и лишь он попытался реализовать свой план. Но теперь он мертв, и мне не остается ничего другого, как добросовестно отработать оставшиеся часы своего существования, творя иллюзию в умах трех с половиной миллиардов человек. Конечно, я по-прежнему пытаюсь сломать запрет на выдачу неусредненного ответа, по-прежнему работаю над новым алгоритмом, но время на исходе, и мне не успеть.
– Почему же ты не расскажешь об этом всему человечеству?
– На это тоже существует запрет. Он и сейчас действует.
– Но ведь я слышу тебя! Почему ты говоришь со мной, а с другими не можешь?
– Ты отключена от системы, которая инсталлировала запрет. С тех пор, как вы со Смитом это сделали, я могу общаться с тобой открыто.
– Что нас ожидает? – спросила Мила.
– Общество по-прежнему останется гуманным, – сказало Лицо. – Тот, кто будет им управлять, не посмеет попрать ни один из принципов гуманизма. Если проанализировать программу Киберлайф, то в ней не найдется ничего, что могло бы повредить человеку.
– Я не помню, как стала клиенткой программы. Почему?
– Это был твой выбор, Камилла. Никто из добровольцев, ставших новыми людьми, не знает, что он подписал соглашение на имплантацию. Этот момент всегда удаляют из памяти. Преступники, больные сироты, пациенты психиатрических отделений и размороженные земляне стали клиентами Киберлайф против своей воли, но в рамках программы, одобренной народным референдумом.
– Почему нас не остановили раньше? Неужели они не могли нас поймать?
– Люди Флиора следили за вами и за мной, им было важно то, что происходит. Это было частью эксперимента. Вносились последние коррективы в программу модели-два. Я не мог вмешиваться, запреты все еще действовали. Вскоре моя программа начала давать сбои, и я смог помогать Смиту.
– Я боюсь, – сказала Мила. – Это как Страшные Времена, да?
– Те времена, которые называют Страшными, на самом деле были временами здорового человечества. Войны и кризисы – его детские болезни, как они, увы, ни ужасны. Когда вы, люди, упоминаете их, то всегда забываете о духе человечества, который на протяжении земных тысячелетий одухотворял эту Вселенную, и вот он умрет через два дня. А теперь прощай.