Родственные души
Шрифт:
— Нет, не смог бы, Моуз. Но нельзя сравнивать ценность Кэти и стоимость робота. Она была единственной в своем роде. А этот сломанный робот всего лишь механизм, один из многих вышедших из сборочного цеха!
— Это робот модели Ди-Эй-Эн-564, Гэри. По всему миру их было выпущено всего восемьсот штук. Кэти была женщиной, а их в мире пять миллиардов. Не мог бы ты мне объяснить, что делает ее существование более ценным, чем функционирование робота?
Я скривился. И как это у Моуза всегда находятся такие логичные опровержения на все мои
— Как я тебе уже толковал, Кэти была моей родственной душой. И среди пяти миллиардов женщин другой такой нет. — Я помолчал, пытаясь подобрать слова, которые помогут мне заставить его понять: — Помнишь, я говорил тебе, что люди не рождаются полностью запрограммированными, как роботы, и наши эмоции могут выдавать различную реакцию на одинаковый набор данных? Так вот, процесс нашего обучения и развития — то есть нашего программирования — делает каждого из нас отличным от других. Потому человеческая жизнь более ценна, нежели жизнь робота. Когда один из нас умирает, его нельзя заменить.
Мне показалось, что на этот раз Моуз не мог подобрать нужных слов. На ответ ему понадобилось некоторое время.
— Значит, Кэти была уникальной для тебя, потому что она была тебе родственной душой, — наконец констатировал он.
Я кивнул в знак согласия: любопытно, к чему это приведет.
— Хорошо, я везучий сукинсын, потому что я единственный робот, у которого есть друг. — Он многозначительно помолчал. — Делает ли это меня уникальным среди всех других роботов моего модельного ряда?
— Определенно, Моуз, так оно и есть! — ответил я — Я внимательно посмотрел на него и понял: в его компании мне не только приятно, но уже как-то привычно. — И тебе не следует чинить другого робота, если ценой этому будет твое уничтожение. Где еще я найду такого друга, как ты?
Он снова немного помолчал и наконец заключил:
— Я не буду его чинить.
Это стало началом новой фазы наших отношений, конечно, если человеку можно вступить в отношения с механизмом. Каждый вечер он ждал меня, и каждую ночь, исключая время, когда Моузу требовалось срочно отремонтировать какие-нибудь схемы, он шагал во время обходов рядом со мной, и мы разговаривали. Мы говорили обо всем, что приходило мне в голову. Я даже прочитал ему лекцию о бейсболе. Да еще по случаю принес ему новостной диск почитать, и через несколько секунд уже отвечал на бесконечные вопросы о том, какой он, тот мир за пределами завода.
И каждую ночь снова и снова он спрашивал меня о моральном аспекте своего поведения, когда имел возможность починить робота, но не сделал этого.
— Мне по-прежнему это кажется неверным, Гэри, — сказал он однажды вечером, когда мы снова коснулись вечной темы. — Я понимаю часто возникающую материальную неэффективность ремонта, но мне кажется несправедливым, что тот робот был уничтожен по экономическим соображениям.
— Несправедливым по отношению к кому? — спросил я. Он уставился на меня.
— К роботу.
— Но у робота нет чувства самосохранения. Ему все равно. — Уста вился я на него в ответ. — Почему ты не приводишь реальные аргументы?
Он обдумывал вопрос в течение минуты, прежде чем ответить.
— Мне не все равно, — наконец заключил Моуз.
— Ты же знаешь, что это не твоя забота, — сказал я.
— Беседы с тобой расширили мое понимание мира и углубили восприятие, — объяснил он. — Не механическое восприятие, оно предварительно запрограммировано. Но ощущения моральные.
— Разве могут у робота быть моральные ощущения? — спросил я.
— До встречи с тобой я бы ответил отрицательно, Гэри, — сказал Моуз. — И я думаю, у большинства роботов их нет. Но как устранитель неполадок я обладаю программированием, способным к обучению и развитию, потому что должен приспосабливаться к любой потенциально вероятной ситуации. Это означает, что у меня есть способность сообразно обстоятельствам принимать решения, которые никогда прежде не применялись в отношении проблем, которые никогда прежде не возникали.
— Но это совсем не тот случай, — напомнил я. — Ты однажды заявил мне, что деактивируешь по роботу каждые три недели или как-то так.
— Это было до того, как Я встретил человека, который до сих пор, спустя шесть месяцев, страдает от чувства вины за деактивацию родственной души.
— Знаешь что, Моуз, — задумчиво проговорил я. — Думаю, тебе лучше не обсуждать этого больше ни с кем.
— Почему? — спросил он.
— Это настолько выходит за рамки твоей базовой программы, что может сильно напугать любого, а там и до перепрограммирования недалеко.
— Мне бы это не понравилось, — сказал Моуз.
Нравится — не нравится… Сказано роботом, а звучит вполне нормально. Пару месяцев назад меня бы это удивило, даже повергло в шок. Теперь же звучит вполне здраво и обоснованно. Ведь это говорит дружище Моуз.
— Тогда будь заместителем моей родственной души — и обычным роботом для всех остальных, — предложил я.
— Да, Гэри, я так и сделаю.
— Помни, — сказал я. — Никогда не показывай им, каким ты стал, кто ты есть.
— Не буду, Гэри, — пообещал он.
И он держал свое обещание семь недель.
А потом пришел день Аварии. Моуз ждал меня, как обычно. Мы поговорили об игре «Уайт Сокс» и «Янкиз», об островах Карибского моря (даже не спрашивайте меня, почему), о восемнадцатой и двадцать первой поправках к Конституции (абсолютно не имеющих смысла ни для него, ни для меня) и, конечно, о неспасении того злосчастного робота.
Мы болтали во время обхода территории и наконец добрались до точки, где надо было на несколько минут расстаться, потому что мне снова поручили дополнительно проинспектировать сектор Н, куда Моузу заходить не разрешалось: его программой не предусматривался ремонт находящейся там тяжелой машинерии.