Читать книгу Искусственный Интеллект Царствия Облачного - Борис Дмитриевич Яровой - Страница 2

ИР как угроза

Оглавление

Илон Маск, Варнор Виндж, Стивен Хокинг, Джеймс Баррат, Билл Гейтс и многие другие люди выражают свою обеспокоенность тем, что развитие ИИ может привести к исчезновению человечества. Вопрос о такой угрозе содержит в себе два пункта: сможет ли и захочет ли. Нет смысла обсуждать угрозу от ИИ, если вне зависимости от желания, у него нет такой возможности. Доверите ли вы свою жизнь ИИ? – для каждого человека, кто летал на современном самолете, этот вопрос является риторическим. Большую часть полета ваша жизнь зависела от автопилота. Возможно вас забыли спросить об этом и никак не учли ваше мнение по данному вопросу – но это уже свершившийся факт.


Доверит ли человечество свою жизнь ИИ? – вопрос сложный, но опять же, уже решенный, то есть риторический. Ответ на него был получен в январе 1985 года, когда в СССР на боевое дежурство был поставлен комплекс «Периметр», известный на Западе как «Dead Hand», что в буквальном переводе значит «Мёртвая рука». «Мёртвая рука» – это комплекс управления массированным ответным ядерным ударом, изначально спроектированный как полностью автоматическая система, способная принимать решение об адекватном ответном ударе самостоятельно, то есть без участия человека. «Периметр» гарантирует старт баллистических ракет подводного, воздушного и шахтного базирования в том случае, если противником будут уничтожены все пункты, способные отдать приказ об ответной атаке. Она полностью независима от остальных средств связи и командных систем, даже от пресловутого «ядерного чемоданчика» системы «Казбек».


Самый главный компонент «Мертвой руки» – автономная контрольно-командная система, созданный на базе искусственного интеллекта. Получая данные о переговорах в эфире, радиационном поле и другом излучении в контрольных точках, информацию систем раннего обнаружения запусков, сейсмической активности, ИИ способна делать выводы о факте массированного ядерного нападения. Далее система самостоятельно переводится в состояние боеготовности и ждет получения сигналов от обычных командных пунктов РВСН.


Если сигналы не поступают в течение контрольного времени, выпускаются командные ракеты 15А11, головная часть которых содержит радиотехническую систему, транслирующую пусковые коды для всего ядерного ракетного вооружения. Получив сигнал на запуск, ядерный арсенал начинает уничтожать человечество в автоматическом режиме. В декабре 2011 года командующий РВСН генерал-лейтенант Сергей Каракаев заявил, что система «Периметр» по прежнему находится на боевом дежурстве.


Ник Бостром, возглавляя институт, который занимается поиском и публикацией экзистенциальных рисков, так рисует в своей книге «Сверхинтеллект: Возможности, Риски, Стратегии» пессимистичный сценарий развития: «Нанофабрики, производящие нервно-паралитический газ или самонаводящиеся ракеты размером с комаров, одновременно вырвутся с каждого квадратного метра планеты, и это будет конец человечества». Можно придумать еще множество различных вариантов того, как ИР уничтожит человечество. Впрочем все равно это список будет неполным, так разум ИР выходит за пределы человеческих ограничений. Так одну нейросет обучили играть в Tetris, поставив ей задачу не проигрывать. И ИИ нашел выход – как только стакан заполнялся доверху, экран блокировался и игра ставилась на паузу.


В 1942 году, писатель фантаст Айзек Азимов сформулировал три закона роботехники, призванные спасти людей от роботов.

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


В прошедшие годы эти законы подвергались многочисленным изменениям и интерпретациям. Множество симпозиумов, конференция и семинаров было тем или иным образом посвящено вопросам морально – этического поведения роботов и искусственного интеллекта. Однако с прагматической точки зрения, по мнению автора это не имеет никакого значения по двум причинам.

Еще никогда в истории человечества не существовало вопроса, связанного с вооружением, по которому главы всех государств пришли бы к единодушному мнению. Любые ограничения в разработках ИИ не имеют смысла, если их не будут придерживаться все страны, от США, Китая и России и до Израиля, Ирана и Северной Кореи. Если у Вас есть граница в тысячу км., и вы не контролируете на ней 1 метр – у Вас нет границы.

Если бы главы всех государств смогли договориться о принятии единых стандартов в разработке ИИ, всегда существует ненулевая вероятность появления индивидуального хакера, способного запустить в облако программу рекурсивного самопрограммирования.

Искусственный Интеллект Царствия Облачного

Подняться наверх