Читать книгу Пластмассовый бог - - Страница 4

4.

Оглавление

Доктор Гейзенберг вошёл вслед за Артуром Шаломбери в просторный треугольный кабинет директора лаборатории, выдержанный в серых тонах. Огромная передняя стена имитировала стекло, открывающее вид на панораму Сатурна, наполовину скрытого горизонтом Титана. Конечно, они находились под землёй и ничего этого не могли видеть в действительности. Но все равно картинка производила впечатление. В углах стояло несколько цветочных ваз, из мебели – красный кожаный диван, книжная стенка, большой, темного дерева стол директора и несколько белых кресел, в одном из которых тут же устроился профессор. Сам директор, маленький, краснолицый, пухлый человечек, сидел за большим столом и тихо беседовал с кем-то, когда доктор вошёл. Оба встали и Гейзенберг увидел Павла Гринева. Они сухо поздоровались, директор вежливо представился:

– Меня зовут Альфред Хойк, я директор лаборатории, а Гринев, – он указал пухлой рукой на Павла и поправил маленькие очки. – руководитель программы. Вы будете работать в отделе программного обеспечения. Нет, нет, – директор хохотнул и взмахнул руками, – вы не будете заниматься программированием, это не ваш профиль. Это название для отвода глаз, как и большинство других названий. Вообще, мой вам совет: здесь, в лаборатории, ничему не удивляйтесь. Здесь такая аура секретности, что я уже скоро начну путаться в паролях!

И он весело расхохотался, при этом внимательно глядя на доктора щелочками глаз из-за маленьких стекол очков.

– Давайте ближе к делу, директор, – утомленно проговорил Шаломбери и подминул Гейзенбергу.

Гринев пригласил доктора сесть, тот удобно устроился в кресле и поинтересовался:

– Так чем же я буду заниматься?

Гринев и Хойк переглянулись. Павел взглянул доктору прямо в глаза и сказал:

– Вам нужно написать моральный кодекс.

Доктор переводил взгляд с одного лица на другое.

– Дайте угадать, для искусственного разума?

Директор Хойк кивнул, но Павел сказал:

– Не совсем так.

Они снова переглянулись и директор, активно жестикулируя, стал объяснять:

– Представьте себе, что некий… некое… ну, скажем существо похожее на человека, но человеком не являющееся, своего рода машина, робот, но не совсем в том смысле, в котором вы привыкли это понимать, так вот, это существо получает свободу действовать. – Тут директор поймал на себе грозный взгляд Павла, запнулся и шепотом сказал: – послушай, он должен знать такие вещи, как он будет работать? Так вот, – продолжил он, обращаясь вновь к доктору, – оно, это существо, получит свободу действовать. И ваша задача написать для него своего рода этическую модель поведения, которая будет мотивировать его, так скажем, к хорошему поведению. Повторюсь, это не должна быть программа, это будет лишь кодекс, совсем как у человека.

Из всего этого доктор понял одно и тут же выпалил свои соображения:

– Иными словами, вы здесь собираетесь дать свободу искусственному интеллекту? Это запрещено законом!

Директор горестно вздохнул. Павел посмотрел на него взглядом: «я тебя предупреждал», встал и отошёл к окну.

– Это не искусственный интеллект, доктор, – сказал он, не оглядываясь. – Это машина. Умная машина. Она получит свободу, это так. Но это всего лишь эксперимент. Мы хотим понаблюдать и сделать выводы. У машины будет разум и свободная воля. И моральный кодекс. Задача эксперимента – выяснить, как она будет поступать, как распорядиться этой свободой. У нее не будет никаких программ, но будет опыт. Это не искусственный интеллект в традиционном понимании. Это не робот с самосознанием. Это не мыслящая машина. Это нечто, чему мы и сами пока не придумали названия.

Павел прошёл к столу и остановился, сунув руки в карманы и глядя на доктора сверху вниз.

– Поймите, рано или поздно настанет день, когда машины начнут управлять людьми. "Пластмассовый бог" – это не расхожая байка. Ее придумали китайцы, но как и в любой сказке, в мифе, в ней есть зерно правды. Это зерно в том, что робот-правитель однажды выйдет на сцену. Но кто выведет его? Вот главный вопрос. Машины сегодня применяются всюду, они все сложнее и сложнее, они способны вести философские беседы о смысле жизни, они скоро будут решать задачи, которые человечество решить не способно! Наш эксперимент служит именно этой цели – убить страх перед машинами, научить людей доверять роботам целиком и полностью. Задача как раз для вас, не так ли? Вы ведь до дрожи боитесь умных машин и свято убеждены, что как только робот научиться ставить цели и решать сложные задачи он неминуемо взбунтуется. Мы хотим, чтобы результатом эксперимента стала возможность дать машинам свободный разум. – И он шутливо добавил, усмехнувшись: – Поможете нам?

Доктор Гейзенберг уже давно сидел неподвижно, не в состоянии шевельнуться. Да, у него была фобия, страх перед искусственным умом, эта болезнь осталась незамеченной никем. Он боялся умных машин, до холодного пота, до дрожи в коленках и в своё время он решил, что положит конец всем работам по развитию искусственного разума. Но ему, конечно, не дали этого сделать. После памятного доклада, в котором он говорил об угрозах и рисках, воротилы бизнеса погнали его из науки поганой метлой. И вот ему дают шанс вернуться, да ещё, можно сказать, окунают в самый эпицентр событий.

– Вы совершаете ошибку, – тихо, сдавленным голосом выговорил доктор. – Нельзя давать машине свободу принимать решения. Нельзя. Это приведёт к ужасным последствиям, вы себе даже не представляете…

– К каким, доктор? – Павел улыбался, но было заметно, что упрямство доктора бесит его. – К каким последствиям? К ядерной войне? Захвату Вселенной машинным разумом? Или из нас сделают скрепки для бумаг? Это все фантазии, поймите, если вы увидели в детстве «Терминатора» и он напугал вас до чертиков, это не может служить достаточным основанием для прекращения работ в области ИИ! Что может мыслящая машина против человека?

– Я не знаю. – Доктор прямо и открыто посмотрел на Павла, потом на директора. Те переглянулись. – Никто не знает. Мы не можем сказать, как поведёт себя машина. И уже одно это должно быть достаточным основанием для прекращения всех работ по развитию свободного искусственного разума.

– Вы ничуть не изменились, – мрачно выговорил Павел, опустился в кресло и побарабанил пальцами по подлокотникам. – Послушайте, доктор. Ведь вы специалист высочайшего класса по этике искусственного интеллекта. Вы знаете об этом все, вы лучший. И вы боитесь машин. Так это же хорошо! Именно это нам и нужно! Напишите для нас моральный кодекс, сделайте так, чтобы машины боялись поступать плохо, передайте машине свой страх!

– Машине не ведом страх, – зловеще проговорил Шаломбери, давно хранивший молчание. – Машине не ведомы чувства. У машин нет души, нет сердца, есть только процессор и провода. Они не сомневаются, они ничего не забывают, не раздумывают и никогда не останавливаются. И вы хотите этому чудовищу Франкенштейна дать свободу? Свободу мыслить, действовать, решать, ставить цели и достигать их? Не надо делать из роботов игрушки. Разумная машина, которая получит неограниченную свободу, не захочет служить людям. Вы научите ее формальной логике, дадите ей мораль, а она посмотрит, как живут люди и задаст себе вопрос, много вопросов: почему люди так скверно живут, убивают друг друга, грабят? Почему люди делают зло, сами нарушают кодекс, который дали машине? Что она решит, не найдя ответов на все эти вопросы? Вы можете предположить? Не сочтёт ли она нас недостойными жить?

Пластмассовый бог

Подняться наверх