Миры Айзека Азимова. Книга 3
Шрифт:
— Второй же робот, который наливал молоко, — продолжал тот, — не знает, что в него что-то добавили. В полном неведении он подает молоко человеку, и человек умирает.
— Нет! — выкрикнул Либич.
— Почему же нет? Оба задания сами по себе безобидны. Только вместе взятые они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?
— Тогда убийцей будет человек, который отдал эти приказы! — крикнул Либич.
— С философской точки зрения — да. Но убийцами-исполнителями, орудиями убийства, будут роботы.
— Ни один человек не
— Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нем?
— На Солярии слышишь все и вся.
— Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было — вам как солярианин, нет надобности объяснять почему.
— Я не детектив и не выдвигаю гипотез.
— Вот я вам и предлагаю гипотезу. И хочу знать, насколько она реальна. Хочу знать, могут ли двое роботов произвести два раздельных действия, которые сами по себе безобидны, но вместе ведут к убийству. Вы эксперт, доктор Либич. Возможно ли такое?
— Да, — ответил загнанный в угол Либич так тихо, что Бейли с трудом расслышал ответ.
— Очень хорошо. Вот вам ваш Первый Закон.
Приспущенное веко Либича пару раз передернул тик. Он разнял свои сжатые руки, но пальцы остались согнутыми, будто каждая рука продолжала сжимать другую, призрачную. Либич опустил руки на колени, и только тогда пальцы распрямились. Бейли рассеянно наблюдал за его действиями.
— Теоретически возможно, — сказал Либич. — Теоретически! Вам так легко не разделаться с Первым Законом, землянин. Нужно очень умело формулировать приказы, чтобы обойти Первый Закон.
— Согласен, — сказал Бейли. — Я всего лишь землянин и в роботах ничего не понимаю, а приказы, которые приводил в пример, сформулировал условно. У солярианина, я уверен, это получилось бы куда лучше.
Либич, как будто не слыша, громко сказал:
— Если робота можно хитростью заставить причинить вред человеку, это означает только то, что позитронный мозг нужно совершенствовать. Следовало бы, собственно, усовершенствовать человека, но это не в нашей власти — значит, надо повышать дуракоустойчивость робота. Мы прогрессируем. Наши роботы стали разнообразнее, профессиональнее, способнее и безвреднее, чем были век назад. А через сто лет мы добьемся еще большего. Зачем заставлять робота управлять машиной, если можно снабдить позитронным мозгом саму машину. Это специализация, а возможна и универсализация. Почему бы не создать робота со съемными и сменными конечностями? А? Если бы…
— Вы единственный роботехник на Солярии? — прервал его Бейли.
— Не говорите глупостей.
— Я только спрашиваю. Доктор Дельмар, например, был единственный… э-э… фетоинженер, не считая его ассистентки.
— На Солярии около двадцати роботехников.
— И вы — лучший?
— Лучший, — ответил Либич без ложной скромности.
— И Дельмар работал с вами.
— Да.
— Насколько я понимаю, перед
— Ничего похожего. Кто подал вам эту мысль?
— Сдается мне, он не одобрял вашего холостого образа жизни.
— Наверное. Он был истинный солярианин. Но это не влияло на наши деловые отношения.
— Чтобы сменить тему: вы ведь не только разрабатываете новые модели, но также выпускаете роботов и ремонтируете их?
— Производством и ремонтом занимаются в основном сами роботы. В моем имении есть большой сборочный завод и ремонтная мастерская.
— Ремонтировать роботов очень сложно?
— Очень просто.
— Значит, техника ремонта недостаточно развита?
— Это вовсе не так.
— А как же тот робот, что присутствовал при убийстве доктора Дельмара?
Либич отвел глаза и сдвинул брови, будто в глубокой печали.
— С ним ничего нельзя было сделать.
— Так-таки ничего? Он совсем не мог отвечать на вопросы?
— Ни на один. Бесполезно было и пробовать. Позитронный мозг замкнуло необратимо. Не осталось ни одной неповрежденной схемы. Поймите — он был свидетелем убийства, которому не мог помешать.
— А почему, кстати?
— Кто знает? С ним экспериментировал доктор Дельмар. Я не знаю, в каком умственном состоянии находился робот. Дельмар, например, мог ему приказать приостановить все операции, пока исследовалась одна определенная схема. Если кто-то, кого ни доктор Дельмар, ни робот ни в чем дурном не подозревали, вдруг совершил смертоносное нападение, должно было пройти какое-то время, чтобы потенциал Первого Закона в мозгу робота преодолел блокирующий приказ Дельмара. Время задержки зависит от способа нападения и от формулировки приказа. Могу вам подобрать еще с дюжину причин, по которым робот не мог помешать убийству. Так или иначе, Первый Закон был нарушен, оттого и сгорели все схемы в позитронном мозгу.
— Но если робот физически не мог помешать убийству, разве он несет за это ответственность? Разве Первый Закон требует невозможного?
Либич пожал плечами.
— Первый Закон, несмотря на ваши попытки умалить его, защищает человека до последнего. Он не допускает исключений. Если Первый Закон нарушен, робот погибает.
— Это универсальное правило, сэр?
— Такое же универсальное, как и сам робот.
— Вот я и узнал кое-что.
— Тогда узнайте кое-что еще. Ваша гипотеза убийства как серии безобидных в отдельности поступков роботов в деле Дельмара не срабатывает.
— Почему?
— Дельмара не отравили — его ударили по голове. Кто-то должен был нанести удар, и нанесла его человеческая рука. Ни один робот не возьмет дубинку и не размозжит человеку череп.
— А если робот нажал безобидную кнопку и на голову Дельмара упал замаскированный груз?
— Землянин, — кисло улыбнулся Либич, — я был на месте преступления. И не пропустил ни одного выпуска новостей. Убийство на Солярии, знаете ли, дело нешуточное. Я точно знаю, что на месте преступления не было никаких механизмов, никаких падающих грузов.