Книга Генезис 2075 - Бернард Беккетт
Шрифт:
Интервал:
Закладка:
Адам ничего не сказал в ответ.
— Снова эта игра в молчанку, — вздохнул Арт.
— Это не игра.
— Так что же это такое? — поинтересовался робот. На его лице не отразилось ни тени неприязни.
— Я не имею привычки разговаривать со стенками, столами и заборами. Или машинами.
— Даже в тех случаях, когда они тебе отвечают?
— Ты мне не отвечаешь. Это не разговор.
— Это еще почему?
— Сам знаешь.
— Нет, не знаю.
— Да, точно. Не знаешь. В этом-то вся суть. Ты ничего не знаешь и не понимаешь, — Форд говорил с напором, будто желая убедить в справедливости своих слов не только андроида, но и самого себя.
— Я понимаю. Проверь меня.
— У меня может не получиться. Вдруг твоя программа окажется достаточно сложной?
— Если моя программа настолько совершенна, что именно ты пытаешься обнаружить?
— В детстве я был знаком с одной девочкой, — начал Адам. — Она постоянно таскала с собой говорящую куклу. Программа у той была простая. Когда куклу поднимали, она говорила: «Привет!» Когда ее гладили по спине, откликалась: «Спасибо!» Могла сказать еще пару-другую слов. Каких именно — не помню. Может, «Я устала». А еще она реагировали на вопросы. Если ее о чем-то спрашивали, она регистрировала изменения в интонации и отвечала «да» или «нет». Наугад. Так вот, моя знакомая обожала эту куклу. Дни напролет разговаривала с ней. Задавала бессмысленные вопросы и приходила в восторг всякий раз, когда слышала ответ. Когда ее брали куда-нибудь без игрушки, девочка ударялась в слезы.
— И ты плакал? — спросил Арт. — Ты ведь плакал, когда меня увезли? Ты это хочешь сказать?
— Я пытался тебя убить, — напомнил роботу Адам.
— Быть может, чувство вины заставило тебя смягчиться. Такое случается.
— Я клоню к тому, что девочка была маленькой. Она выросла. Она перестала верить в куклу.
— А перестав в нее верить, она от нее избавилась?
— Она отдала ее мне, — произнес Форд.
— Значит, я у тебя не первый?
— Мы с приятелем поймали кролика и засунули внутрь игрушки его кишки. Потом привязали ее к рельсам, дождались поезда и все засняли. Было очень смешно.
— Ты это только что придумал.
— Да, правда. Я бы никогда не причинил кукле вреда.
— А ты не боишься?
— Чего?
— Что кукла причинит тебе вред. Ты пытался меня уничтожить. Вдруг я вынашиваю в уме план мести?
— Ты не обладаешь ни сознанием, ни мышлением. Такой довод тебя устраивает?
— Может, я решил дождаться, когда ты уснешь, а потом выпустить тебе кишки ударом ледоруба. Мне сон без надобности, я всегда наготове.
— Если бы меня собирались убить, это уже давно бы сделали.
— Но если это сделаю я, все будет выглядеть как несчастный случай. Ловкое решение маленькой проблемы, возникшей у властей.
— Убьешь меня, так убьешь, — пожал плечами Адам. — Меня это не шибко волнует. Если надо, забирай тело, только не думай, что и душа тебе достанется.
Форд, извиваясь, медленно отполз в дальнюю часть комнаты. Выло видно, что движения причиняют ему боль. Выждав несколько мгновений, Арт последовал за ним.
Человек вздохнул.
— Надеюсь, ты на меня не обидишься, если я скажу, что от тебя дурно пахнет, — начал робот.
— Тебе не под силу чувствовать запах.
— Я не сделаю тебе ничего дурного.
Я не могу причинить тебе вред. Хочешь узнать почему?
— Нет.
— Я все-таки расскажу тебе. Считай это своеобразным наказанием.
— Как у тебя получится меня наказать, если ты не можешь причинить мне вреда? — поинтересовался Адам.
— Иногда наказание может пойти на пользу, — отозвался Арт. — На стадии разработки велось много споров о том, какие именно элементы моего поведения следует подавить. Некоторые (наивные) Философы полагали, что следует избавить меня от всех отрицательных поведенческих элементов, свойственных человеку, однако оказалось, сделать это далеко не так просто. И вот, если робота программировали так, чтобы он всякий раз просчитывал последствия всех своих действий, машину парализовывало. Из-за чудовищной нерешительности, вызванной страхом совершить ошибку, она не могла сдвинуться с места, если ослабляли стремление заботиться о других, робот раньше других отключался от процесса подзарядка и демонтировал конкурирующие прототипы. Я не преувеличиваю, такое и впрямь случалось. Если же со стремлением заботиться о других перебарщивали, автомат начинал работать на износ, во всем стараясь угодить другим. Именно поэтому я здесь и с тобой. Чем больше Философы прикладывали усилий, тем яснее им становилось, что они не в состоянии отличить правильное от ошибочного, хорошее от плохого. Правильное можно оценить только по поступкам. Единственный способ обойти проблему заключался в том, чтобы предоставить андроиду возможность самому во всем разобраться в процессе обучения. Заодно во время общения с человеком он должен был освоить парочку фокусов, которыми люди овладели в процессе эволюции. В результате понятие «добродетель» исчезло из списка основных мотиваций робота. Главным приоритетом стала «совместимость». Однако тебе не о чем беспокоиться. Вне зависимости от того, какие дурные уроки ты мне преподашь, я не смогу причинить вред другому существу, обладающему самосознанием. Это является одним из фундаментальных императивов моей программы.
— Ты же знаешь, мне это неинтересно. Ведь знаешь же, да? — произнес Адам.
— Я тебе не верю, — ответил Арт. — У меня есть специальная программа, детектор лжи. Она сканирует радужную оболочку твоих глаз. Очень хорошая программа.
— Как жаль, что у тебя нет программы, позволяющей тебе понять, какой же ты стал для меня занозой в заднице.
— Честно говоря, у меня и на это есть интересная история.
— Ничего в ней интересного нет.
— Так что, ты действительно хочешь, чтобы я замолчал?
— Пожалуйста.
— Я попробую.