Пятница, которая убивает - Страница 37


К оглавлению

37

— Нет.

— Только генный инженер или тот, кто очень тесно связан с этой промышленностью может утверждать, что у него есть друзья среди ИЧ. И это потому, моя дорогая, что, невзирая на очень распространенную байку, отличить искусственного человека от обычного совершенно невозможно. Да-да… А из-за нелепых предрассудков, свойственных тупым и невежественным людям, искусственный человек почти никогда добровольно не признается в своем происхождении. Да что там «почти»! Вообще никогда. Поэтому, хотя я и очень рад, что у тебя не едет крыша от разговоров об ИЧ, мне приходится расценивать твое утверждение, как… ну, как гиперболу, что ли, к которой ты прибегла, чтобы продемонстрировать свою свободу от предрассудков.

— Что ж… ладно. Пусть будет так. Я не понимаю, почему ИЧ должен считаться гражданином второго сорта. Это несправедливо.

— Несправедливо. Но некоторые люди напуганы. Спроси, например, у Жана. Он готов сейчас сломя голову мчаться в Ванкувер, только чтобы не позволить ИЧ стать пилотами. Он…

— Заткнись ты! Черта с два! Я поддерживаю это потому, что мои братья по гильдии так проголосовали, но… Я же не идиот! Джордж, я не живу с тобой, мы общаемся, и… я понял, что тут нужен компромисс — мы должны как-то договориться. Мы ведь в нынешнем веке уже не настоящие пилоты — все делает компьютер. Если компьютер вырубится, я, как настоящий бойскаут, попытаюсь посадить коробку на землю, но… Не спеши ставить на меня! Скорости, требующиеся в критические моменты, давно уже лежат за пределами человеческих возможностей… Ну, конечно же, я постараюсь! И каждый пилот на моем месте выложится, но… Джордж, если ты можешь создать ИЧ, который будет мыслить и действовать со скоростью, достаточной, чтобы самостоятельно выйти из подпространства, я ухожу на пенсию. Это — все, чего мы добиваемся: если компания заменит нас ИЧ, нам должны быть выплачены все наши деньги. Если ты, конечно, и впрямь можешь создать такое

— Ну, разумеется, я мог бы это сделать. И когда я сотворил бы это, если бы мне позволили, все пилоты могли бы спокойненько отправляться удить рыбу до конца своих дней. Но это был бы не ИЧ, а искусственное существо. Если бы мне пришлось создавать организм, способный обеспечить полную безопасность при пилотировании, я никогда не стал бы ограничивать себя таким потолком — соблюдать абсолютную его идентичность обычному человеку…

— Не надо этого делать!

Мужчины уставились на меня с изумлением, а Жанет — с любопытством, я же… пожалела, что не прикусила себе язык вовремя.

— Почему нет? — поинтересовался Джордж.

— Ну… Потому что я никогда бы не села на такой корабль. Гораздо безопаснее я чувствую себя с Жаном.

— Спасибо тебе, Мардж, — улыбнулся Жан, — но… ты ведь слышала, что сказал Джордж. Речь идет о пилоте, который будет делать все лучше, чем я. Это вполне возможно. И так оно, черт возьми, и будет! Заменили шахтеров автоматами — так же заменят и нас. Я не обязан кричать «ура» по этому поводу, но я не могу и закрывать на это глаза.

— Что ж… Скажи, Джордж, ты работал когда-нибудь с компьютером, наделенным интеллектом?

— Конечно, Марджори. Искусственный разум — та область, которая очень тесно переплетается с моей.

— Хорошо. Тогда ты должен быть в курсе, что множество раз специалисты-ученые, создатели искусственного интеллекта, объявляли всему свету, что они совершили переворот и вплотную подошли к созданию полностью разумного компьютера. И каждый раз это кончалось пшиком.

— Да. Это печально.

— Нет. Неизбежно. Это всегда будет кончаться именно так. Компьютер может стать полностью разумным — какие сомнения?! Доведите его до уровня, идентичного человеческому разуму, и ему придется стать разумным. Но тогда он осознает, что он — не человек. Потом он обнаружит, что никогда не сможет стать человеком, и все, что он может, — это сидеть и подчиняться человеческим приказам… И тогда он сходит с ума. — Я пожала плечами. — Это тупик. Он не может быть человеком и никогда не сможет. Не исключено, что Жан и не сумеет спасти своих пассажиров в критический момент, но он постарается. Искусственное создание, не будучи человеком и не испытывая никакой лояльности по отношению к человеческим существам, может запросто разбить корабль… Просто так! Просто потому, что оно устало от несправедливого обращения с ним. Нет, Джордж, лично я полечу с Жаном, а не с твоим ИС, которое в конце концов станет ненавидеть род людской.

Только не с моим ИС, дорогая, мягко поправил меня Джордж. — Разве ты не заметила, в каком наклонении я все время обсуждал этот проект?

— Нет. Мне кажется…

— В сослагательном. Потому что ты не сказала мне сейчас ничего нового. Я никогда над этим не работал и не стану работать. Я способен создать такого пилота. Но я не способен встроить в это ИС то этическое восприятие, какое есть у Жана.

— Может быть, мне стоит на предстоящей встрече потребовать, чтобы любой пилот, будь он ИЧ, или ИС, проходил этический тест? — подумав спросил Жан.

— Какой тест, Жан? Я не знаю способа всунуть в него этические понятия, а Мардж только что убедительно объяснила, почему в данном случае не помогут никакие тренировки и обучения. Но так или иначе, каким тестом ты это обнаружишь? — Джордж повернулся ко мне. — Знаешь, когда я был студентом, — сказал он, — я читал старинные рассказы о роботах-гуманоидах… Да, очаровательные рассказы, и многие из них были основаны на, как их называли, законах роботехники. Главным в этих законах было то, что в каждого робота вводилось основное правило: он никогда не мог ни прямо, ни косвенно причинить вред человеку. Прекрасная основа для фантазии, но… Как это осуществить на практике? Что может заставить разумный организм нечеловеческого происхождения, электронный или органический, быть лояльным по отношению к людям? Я не знаю, как это сделать. Точно так же не знают и искусственные люди. — Джордж усмехнулся. — Разумность можно определить, как уровень мышления, на котором разум вопрошает: «А что во всем этом есть для меня?» Ну-с, Мардж, как насчет продажи мне одного свежего яичка? Быть может, я тогда попробую сказать, что в этом есть для тебя, а?

37