А. Азимов, Г. Уэллс
Шрифт:
– Поэтому вы, роботехник, пытаетесь скрыть от людей некоторые факты? Например, то, что Первый Закон роботы могут понимать по разному?
– Вы ненормальны, а все ваши рассуждения просто бессмысленны.
– Ну что ж, может быть, мы обсудим все проблемы несколько подробнее при личной встрече?
Худое лицо Либига исказилось.
– Нет, ни за что.
– В таком случае, прощайте, доктор Либиг. Я думаю, что другие спейсеры окажутся сговорчивее и внимательно выслушают меня.
– Стойте. О Великая
– Личная встреча, а?
Либиг поднял обе руки кверху, затем беспомощно уронил их. Он полузакрыл глаза, будто бы прислушиваясь к чему-то, происходящему в нем.
– Согласны? – настойчиво переспросил землянин.
Либиг глубоко вздохнул и покачал головой.
– Не могу, – сдавленно проговорил он, – не могу, делайте, что хотите.
Он закрыл лицо трясущимися руками и отвернулся от Бейли.
С минуту Бейли наблюдал за ним, а потом спокойно промолвил:
– Ну, что ж, в таком случае давайте побеседуем так.
– Хорошо, но извините меня, я вернусь через несколько минут, – прошептал солярианин.
Когда Бейли возвратился в помещение, где он беседовал с Либигом, он увидел по-прежнему пустую комнату и стул, на котором ранее сидел роботехник. Его самого еще не было, однако ждать пришлось недолго. Через несколько мгновений появился Либиг и фокусировка переместилась на него.
Сейчас он выглядел совершенно иначе. Его волосы были гладко причесаны, на нем был другой костюм из красивой переливающейся ткани.
«Видимо, великий доктор Либиг сумел взять себя в руки», – подумал Бейли.
– Итак, что вы хотели узнать относительно Первого Закона? – ровным голосом спросил спейсер.
– Нас никто не услышит?
– Нет, я позаботился об этом.
Бейли кивнул.
– Разрешите, я процитирую Первый Закон.
– Едва ли я нуждаюсь в этом.
– Я знаю, но все же мне хотелось бы повторить его. «Робот не смеет делать ничего, что может причинить вред человеческом существу, а также своей пассивностью допустить, чтобы человеческому существу был причинен какой-либо вред».
– Ну, и что же?
– Когда я прибыл на Солярию, меня поместили в закрытую машину и повезли к месту моего назначения. Так как я – землянин и плохо переношу вред открытого пространства, то…
– Я знаю, – нетерпеливо прервал солярианин, – но при чем тут…
– Вы, возможно, и знаете, – в свою очередь прервал его детектив, – но робот, который вел машину, не знал. Я приказал поднять верх машины, и он сразу же повиновался. Второй Закон: «Робот обязан точно и быстро повиноваться приказанию человека». Конечно, мне стало нехорошо, и я пришел в себя только после того, как верх машины был опущен. Разве при этом робот не причинил мне вред?
– По вашему же приказанию, – отпарировал роботехник.
– Разрешите
– Чепуха! Робот не располагает сведениями о… – Либиг слегка запнулся.
Бейли наклонился вперед, его глаза блеснули.
– Ага! А теперь попробуем воспроизвести Первый Закон в его правильном виде. «Робот ни при каких обстоятельствах не смеет делать ничего что может, насколько ему известно, причинить вред человеческому существу или своей пассивностью допустить, чтобы человеческому существу был причинен какой-либо вред».
– Но это само собой разумеется.
– Далеко не всегда. Обычные люди, например, у вас на Солярии слабо разбираются в роботехнике и умеют лишь командовать роботами. Иначе они давно бы поняли, что роботы могут нарушить Первый Закон и причинить любые бедствия. По крайней мере, если ими будет руководить преступный ум.
Либиг побледнел.
– Сумасшествие, безумие, – в волнении прошептал он.
– Видите ли, – Бейли не смотрел сейчас на своего собеседника, он внимательно изучал кончики своих пальцев, – я полагаю, что робот обязан выполнить любой приказ, если, по его разумению, этот приказ не может принести вред человеческому существу, не так ли?
– Да, разумеется.
– Хорошо. А другой робот должен сделать то же, получив столь же невинное и безвредное, с его точки зрения, поручение, правильно?
– Ну?
– А что если два приказа, каждый из которых совершенно невинен, вместе образуют преступление?
– Что такое? – Лицо Либига приобрело землистый оттенок.
– Я хотел бы услышать мнение специалиста, – невозмутимо продолжал Илайдж Бейли, – мой случай, конечно, гипотетический. Предположим, некий человек говорит роботу: налей немного этой жидкости в стакан с водой, который находится там-то. Жидкость совершенно безвредна, но мне нужно знать ее действие на воду. Потом вода будет вылита. После того, как ты это сделаешь, забудь о своем поступке.
Либиг молчал.
– Если вы прикажете роботу добавить в стакан с водой таинственную жидкость, – продолжал Бейли, – и затем предложить эту воду человеку, Первый Закон заставит робота воспротивиться: какова природа этой жидкости? Не причинит ли она вред человеку? И даже после вашего объяснения робот не решится предложить человеку воду с добавленной в нее неизвестной жидкостью. Но ему ясно сказано – воду пить никто не будет. Первый Закон здесь ни при чем. Разве робот не послушается приказа?