Детектив Элайдж Бейли и робот Дэниел Оливо (сборник)
Шрифт:
— Итак, что вы собирались мне сказать относительно Первого Закона?
— Нас никто не подслушает?
— Нет, я принял меры.
Бейли кивнул.
— С вашего разрешения я процитирую Первый Закон.
— Едва ли в этом есть необходимость.
— Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».
— И что же?
— Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства.
— Знаю, знаю, — нетерпеливо прервал Либич. — Какое это имеет отношение к делу?
— Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?
— По вашему же приказу, — отрезал Либич.
— Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.
— Чепуха. Ведь роботы не знали…
Бейли подался вперед.
— Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».
— Само собой разумеется.
— Не думаю, чтобы это понимал средний человек — иначе средний человек сознавал бы, что робот способен на убийство.
— Безумие! Бред! — с лица Либича сползла всякая краска.
Бейли внимательно рассматривал свои пальцы. — Но ведь робот может выполнить невинное задание — ничего такого, что причинило бы вред человеку?
— Если ему прикажут.
— Да, конечно. Если ему прикажут, И второй робот тоже может выполнить невинное задание — ничего такого, что причинило бы вред человеку? Если ему прикажут?
— Да.
— а что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?
— Что? — свирепо нахмурился Либич.
— Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком, Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».
Либич, все еще сердитый, молчал.
— Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку? Даже если бы робота заверили, что жидкость безвредна, Первый Закон все же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют, Первый Закон не включается. Разве робот не выполнил бы подобный приказ?
Либич молча злобно смотрел на Бейли.
— Второй же робот, который наливал молоко, — продолжал тот, — не знает, что в него что-то добавили. В.полном неведении он подает молоко человеку, и человек умирает.
— Нет! — выкрикнул Либич.
— Почему же нет? Оба задания сами по себе безобидны. Только вместе взятые они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?
— Тогда убийцей будет человек, который отдал эти приказы! — крикнул Либич.
— С философской точки зрения — да. Но убийцами-исполнителями, орудиями убийства, будут роботы.
— Ни один человек не станет отдавать таких приказов.
— Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нем?
— На Солярии слышишь все и вся.
— Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было — вам как солярианин, нет надобности объяснять почему,
— Я не детектив и не выдвигаю гипотез.
— Вот я вам и предлагаю гипотезу. И хочу знать, насколько она реальна. Хочу знать, могут ли двое роботов произвести два раздельных действия, которые сами по себе безобидны, но вместе ведут к убийству. Вы эксперт, доктор Либич, Возможно ли такое?
— Да, — ответил загнанный в угол Либич так тихо, что Бейли с трудом расслышал ответ.
— Очень хорошо. Вот вам ваш Первый Закон.
Приспущенное веко Либича пару раз передернул тик. Он разнял свои сжатые руки, но пальцы остались согнутыми, будто каждая рука продолжала сжимать другую, призрачную. Либич опустил руки на колени, и только тогда пальцы распрямились. Бейли рассеянно наблюдал за его действиями.
— Теоретически возможно, — сказал Либич. — Теоретически! Вам так легко не разделаться с Первым Законом, землянин. Нужно очень умело формулировать приказы, чтобы обойти Первый Закон.
— Согласен, — сказал Бейли. — Я всего лишь землянин и в роботах ничего не понимаю, а приказы, которые приводил в пример, сформулировал условно. У солярианина, я уверен, это получилось бы куда лучше.
Либич, как будто не слыша, громко сказал:
— Если робота молено хитростью заставить причинить вред человеку, это означает только то, что позитронный мозг нужно совершенствовать. Следовало бы, собственно, усовершенствовать человека, но это не в нашей власти — значит, надо повышать дуракоустойчивость робота. Мы прогрессируем. Наши роботы стали разнообразнее, профессиональнее, способнее и безвреднее, чем были век назад. А через сто лет мы добьемся еще большего. Зачем заставлять робота управлять машиной, если можно снабдить позитронным мозгом саму машину. Это специализация, а возможна и универсализация. Почему бы не создать робота со съемными и сменными конечностями? А? Если бы…
— Вы единственный роботехник на Солярии? — прервал его Бейли.
— Не говорите глупостей.
— Я только спрашиваю. Доктор Дельмар, например, был единственный… э-э… фетоинженер, не считая его ассистентки.
— На Солярии около двадцати роботехников.
— И вы — лучший?
— Лучший, — ответил Либич без ложной скромности.
— И Дельмар работал с вами.
— Да.
— Насколько я понимаю, перед смертью он собирался прервать ваше сотрудничество.