Обнаженное солнце (сборник) - Бирс Амброз. Страница 82

— Нас никто не услышит?

— Нет, я позаботился об этом. Бэйли кивнул.

— Разрешите, я процитирую Первый Закон.

— Едва ли я нуждаюсь в этом.

— Я знаю, но все же мне хотелось бы повторить его. “Робот не смеет делать ничего, что может причинить вред человеческому существу, а также своей пассивностью допустить, чтобы человеку был причинен какой-либо вред”.

— Ну, и что же?

— Когда я прибыл на Солярию, меня поместили в закрытую машину и повезли к месту моего назначения. Так как я — землянин и плохо переношу вид открытого пространства, то…

— Я знаю, — нетерпеливо прервал солярианин, — но при чем тут…

— Вы, возможно, и знаете, — в свою очередь прервал его детектив, — но робот, который вел машину, не знал. Я приказал поднять верх машины, и он сразу же повиновался. Второй Закон: “Робот обязан точно и быстро повиноваться приказанию человека”. Конечно, мне стало нехорошо, и я пришел в себя только после того, как верх машины снова был опущен. Разве при этом робот не причинил мне вреда?

— По вашему же приказанию, — отпарировал роботехник.

— Разрешите мне процитировать Второй Закон полностью. “Робот обязан точно и быстро повиноваться приказам, полученным от человеческих существ, за исключением тех случаев, когда подобные приказы не вступают в противоречие с Первым Законом”. Следовательно, в моем случае робот не должен был выполнить приказ.

— Чепуха! Робот не располагал сведениями о… — Либиг слегка запнулся.

Бэйли наклонился вперед, его глаза блеснули.

— Ага! А теперь попробуем воспроизвести Первый Закон в его правильном виде. “Робот ни при каких обстоятельствах не смеет делать ничего, что может, насколько ему известно, причинить вред человеческому существу, или своей пассивностью допустить, чтобы человеческому существу был причинен какой-либо вред”.

— Но это само собой разумеется.

Далеко не всегда. Обычные люди, например, у вас на Солярии слабо разбираются в роботехнике и умеют лишь командовать роботами. Иначе они давно бы поняли, что роботы могут нарушить Первый Закон и причинить любые бедствия. По крайней мере, если ими будет руководить преступный ум.

Либиг побледнел.

— Сумасшествие, безумие, — в волнении прошептал он.

— Видите ли, — Бэйли не смотрел сейчас на своего собеседника, он внимательно изучал кончики своих пальцев, — я полагаю, что робот обязан выполнить любой приказ, если, по его разумению, этот приказ не может принести вред человеческому существу, не так ли?

— Да, разумеется.

— Хорошо. А другой робот обязан сделать то же, получив столь же невинное и безвредное, с его точки зрения, поручение, правильно?

— Ну?

— А что если два приказа, каждый из которых в отдельности совершенно невинен, вместе образуют преступление?

— Что такое? — Лицо Либига приобрело землистый оттенок.

— Я хотел бы услышать мнение специалиста, — невозмутимо продолжал Элиа Бэйли, — мой случай, конечно, гипотетический. Предположим, некий человек говорит роботу: налей немного этой жидкости в стакан с водой, который находится там-то. Жидкость совершенно безвредна, но мне нужно знать ее действие на воду. Потом вода будет вылита. После того, как ты это сделаешь, забудь о своем поступке.

Либиг молчал.

— Если вы прикажете роботу добавить в стакан с водой таинственную жидкость, — продолжал Бэйли, — и затем предложить эту воду человеку, Первый Закон заставит робота воспротивиться: какова природа этой жидкости? Не причинит ли она вреда человеку? И даже после вашего объяснения робот не решится предложить человеку воду с добавленной в нее неизвестной жидкостью. Но ему ясно сказано — воду пить никто не будет. Первый Закон здесь ни при чем. Разве робот не послушается приказа?

Либиг все еще молчал, его глаза сверкали, веко нервно подергивалось.

— Теперь рассуждаем далее. Другой робот, не зная, что проделано с водой, спокойно предлагает ее человеку, после чего тот умирает.

— Нет! — закричал Либиг. — Нет!

— А почему нет? Каждое из данных действий само по себе совершенно невинно. Только вместе они приводят к убийству. Вы отрицаете, что подобная вещь может произойти?

— Убийцей будет тот, кто отдал приказ роботу, — воскликнул роботехник.

— Рассуждая философски, конечно. Но непосредственными убийцами являются оба робота, или, если не убийцами, то орудиями убийства.

— Ни одно живое существо не отдаст таких приказов!

— Тем не менее такой человек нашелся. Вы, наверное, слышали о попытке отравить главу Департамента Безопасности Солярии?

— Всех правителей Солярии об этом известили, — пробормотал Либиг.

— В таком случае вы знаете, что Груэр был отравлен во время обеда. Все произошло на глазах у меня и моего коллеги мистера Даниила Оливау с Авроры. Вы можете как-нибудь иначе объяснить, каким образом попал яд в еду Груэра? Ведь в поместье не было ни одной живой души.

— Я — не детектив и ничего не могу объяснить.

— Но я сообщил вам о своей гипотезе. Я бы хотел знать, правдоподобна ли она? Могли ли два независимых действия, которые с точки зрения роботов являются совершенно невинными, привести к преступлению? Вы — опытный роботехник, доктор Либиг. Я вас спрашиваю, — землянин повысил голос, — правдоподобна ли моя теория?

Растерянный, оглушенный, Либиг еле пролепетал:

— Да, пожалуй, до известной степени…

— Очень хорошо. Это многое проясняет.

Либиг неотрывно глядел на Бэйли. Руки, сжатые в кулаки, опустились на колени и медленно начали разжиматься. Бэйли молчал. Либиг заговорил быстро и нервно.

— Правдоподобно. Только теоретически, конечно. В действительности все обстоит сложнее. Надо очень умело управлять роботами для того, чтобы заставить их нарушить Первый Закон.

— Безусловно, — ответил Бэйли, — безусловно. Скажите, кстати, вы — единственный роботехник на всей Солярии?

— Что за глупый вопрос. На Солярии имеется свыше двадцати роботехников.

— Но вы считаетесь лучшим? — Так оно и есть…

Либиг сказал это просто, без всякой аффектации.

— А Дельмар работал с вами?

— Да.

— Я слышал, что незадолго до смерти он собирался прекратить работу с вами?

— Кто сказал вам такую чушь?

— Наверное, доктор Дельмар неодобрительно относился к вашему нежеланию вступать в брак?

— Возможно, Рикэн был истым солярианином. Но эти соображения никак не влияли на наши деловые взаимоотношения.

— Я хотел бы знать, в каком состоянии находится тот робот, который был в лаборатории Дельмара во время его убийства?

Либиг не смотрел на Бэйли, его лоб пересекла глубокая морщинка.

— Робот пришел в совершенную негодность, — медленно ответил он.

— Неужели он оказался полностью негодным? Даже не смог ответить ни на какие вопросы?

— Ни на один, — голос роботехника звучал твердо. — Позитронный мозг не выдержал испытания. Произошло короткое замыкание. Ни один канал позитронного мозга не остался неповрежденным. Ведь робот был свидетелем убийства, которому он не смог помешать и…

— А почему, кстати, он не смог помешать?

— Кто знает? С этим роботом проводил эксперименты сам Дельмар. Я не знаю, в каком состоянии находился робот. Возможно, Дельмар приостановил все реакции робота, пока он исследовал какой-нибудь определенный элемент его устройства. Могут существовать и другие объяснения поведения робота. Во всяком случае, налицо было явное нарушение Первого Закона и, естественно, этого было достаточно, чтобы все каналы мозга пришли в полную негодность.

— Но если робот был физически не в состоянии воспрепятствовать убийству, разве он несет какую-либо ответственность за него? Разве Первый Закон требует невозможного?

Либиг пожал плечами.

— Первый Закон, несмотря на все ваши старания опорочить его, не допускает послаблений. Если нарушен Первый Закон, робот уничтожается. И знаете, я должен огорчить вас, инспектор, — с язвительной улыбкой продолжал спейсер, — ваша гипотеза относительно того, что серия невинных действий, производимых роботами, в итоге может привести к преступлению, нисколько не поможет вам в расследовании убийства Дельмара.