Читать книгу Защита от злоупотребления искусственным интеллектом и нейротехнологиями в аспекте медиабезопасности - Елена Александровна Антонян, Елена Александровна, Елена Александровна Величко - Страница 6

Глава 2. Регулирование нейротехнологий и ии в контексте обеспечения национальной безопасности российской федерации

Оглавление

Создание принципиально новых технологий, существенно меняющих социальную реальность, всегда было нетривиальной задачей. Ярким примером является история правового регулирования Интернета, некоторое время находившегося на периферии или же за пределами внимания законодателя ввиду своей новизны. И это притом, что, хотя в отечественном научном дискурсе принято говорить о телекоммуникационной сети Интернет как о новом, недавно сформировавшемся предмете, ему в его современном виде уже исполнилось тридцать лет; о продолжительности его существования свидетельствует хотя бы наличие доменного имени СССР – su[57]. Да, повсеместное его внедрение в России произошло позже (на рубеже 1990–2000-х гг.), а тридцать лет в рамках фундаментальных научных исследований – не такой большой период времени, и все же Интернет существует уже достаточно долго для того, чтобы говорить о нем как о явлении изученном. Вместе с тем его динамичность, глобальный децентрализованный характер и сложное техническое устройство создавали проблемы для правильного определения границ возможного нормативно-правового регулирования и, собственно, его осуществления.

С повсеместной цифровизацией общественной жизни (которую дополнительно стимулировали сторонние факторы, такие как эпидемиологическая обстановка[58]) в начале 2020-х гг. была проведена оптимизация нормативно-правового регулирования сети Интернет и осуществляемой в ней деятельности. Вместе с тем в 2022 г. произошел прорыв в области ИИ, связанный с развитием и распространением больших языковых моделей (пример – ChatGPT; результат – текст) и их мультимодальных вариантов (примеры – Midjourney, Runway Gen–2; позволяют создавать изображения, аудио-/видеозаписи и т. д.). Прорыв в области нейротехнологий (в первую очередь – нейроинтерфейсов) лишь предстоит, однако уже в обозримом будущем они полноценно присоединятся к ИИ и продолжат совместную трансформацию информационно-коммуникативной сферы. Имеется насущная потребность в правовом регулировании создания и использования данных технологий; такого рода регулирование должно конструироваться в опережающей логике, ведь в противном случае имеются высокие риски негативных последствий.

Как отмечает И. А. Филипова, среди общетеоретических вопросов, требующих урегулирования правом, главное место занимают следующие[59]:

1) вопрос о статусе ИИ (объект или субъект в составе правоотношения);

2) вопрос об ответственности за решения ИИ;

3) вопрос о правах на результаты деятельности ИИ, носящей творческий характер;

4) вопрос о сохранении конфиденциальности данных, в первую очередь – персональных данных;

5) вопрос о правах человека в мире, который заполняется все более совершенными моделями ИИ;

6) вопрос о прозрачности принятия решения ИИ;

7) вопрос о возможной предвзятости, дискриминации со стороны ИИ;

8) вопрос о безопасности и о запрещении использования отдельных разновидностей ИИ;

9) вопрос о том, в какой степени закон должен защищать разумный ИИ (который сможет чувствовать удовольствие и боль).

Перечисленные выше вопросы активно дискутируются в отечественной и зарубежной юридической науке; идет процесс первичного формирования доктринальных подходов к их разрешению в условиях отсутствия четкого правового регулирования всего многообразия связанной с такими технологиями проблематики. Правовое регулирование данной сферы пока находится в зачаточном состоянии; сначала должна быть сформирована общая концепция, модель правового регулирования, и лишь затем следует принимать или изменять отдельные нормативные правовые акты. Тем важнее, ввиду сложности его предмета, проследить связь и соотношение с иными формами нормативного регулирования – этическим и техническим регулированием.

Этическое регулирование формирует концептуальную основу и ключевые подходы к ИИ и нейротехнологиям, которые в дальнейшем реализуются в правовом регулировании; поэтому ранее предлагалось на законодательном уровне разработать и утвердить систему этических принципов, которые должны соблюдаться при разработке и использовании систем ИИ[60]. Техническое же регулирование, обязательное для безопасности и эффективности любой связанной с технологиями деятельности, учитывает реальные возможности ИИ и нейротехнологий и является более гибким, нежели правовое (характеризующееся определенной степенью консерватизма и в то же время жесткостью формулировок). Существует дилемма: если ввести жесткое регулирование (пусть и призванное минимизировать высокие риски злоупотреблений в данных областях), то такое решение приведет к снижению инвестиций и торможению развития технологий, дав серьезнейшие конкурентные преимущества тем, кто не стал ограничивать эту сферу. В данном контексте понятны опасения лидеров области, связанные с принятием регулирующих ИИ и нейротехнологии нормативных актов. С другой стороны, отсутствие четких дозволений, ограничений и запретов создает правовую лакуну, не позволяющую адекватно и полноценно реагировать на общественно опасные деяния, связанные с разработкой и использованием указанных технологий.

В зависимости от предпочитаемой разновидности регулирования выделяют юридический и технологический подходы к регулированию ИИ и нейротехнологий[61]. Первый сложнее адаптируется к технологическим новациям и может им препятствовать, однако является антропоцентричным, следовательно – в большей степени отвечающим интересам социума; второй – наоборот. Оптимальным видится баланс правового и технического регулирования, основанного на сформированных ранее подходах к регулированию этическому. Путь развития первого – введение экспериментальных правовых режимов (разработанных по результатам аналитической работы и научных исследований); второго – разработка стандартов, учитывающих особенности и возможности упомянутых технологий; третьего – создание этических кодексов, содержащих взвешенную консолидированную позицию общества.

Прежде обратим внимание на формирующееся этическое регулирование как на имеющее основополагающее, принципиальное значение. Как отмечает Н. Бостром, потенциально возможный сверхразумный ИИ содержит в себе экзистенциальный риск для будущего всего человечества, а методы, помогающие людям его контролировать (включая сдерживание развития, замедление возможностей или сужение рабочего контекста и т. д.), не могут гарантировать того, что этот контроль сохранится и что ИИ не преодолеет их в будущем; поэтому для того, чтобы являться безопасным для человечества, сверхразумный ИИ должен изначально занимать его сторону, т. е. быть согласован с гуманистическими ценностями и моралью[62]. Потенциальные рамки нормативности дружественного ИИ включают в себя последовательное экстраполированное волеизъявление Юдковски (систему человеческих ценностей, улучшенных посредством экстраполяции), моральную правильность (требование делать то, что морально правильно) и моральную допустимость (требование следовать последовательному экстраполированному волеизъявлению человечества, за исключением случаев, когда это морально недопустимо)[63].

Таким образом, равно как и в случае с Интернетом, глобальный и всеобъемлющий характер функционирующих на его основе технологий ИИ подразумевает потребность в решении связанных с ними вопросов как на международном (в том числе – региональном) уровне, так и на уровне отдельных стран; это в равной степени применимо как для этики, так и для права.

На международном уровне в ходе 41-й сессии Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО), проходившей в Париже с 9 по 24 ноября 2021 г., было утверждено первое в мире рамочное соглашение об этике ИИ – Рекомендация об этических аспектах искусственного интеллекта[64]. Работа над проектом аналогичного документа, но касающегося уже этики нейротехнологий, ведется Специальной экспертной группой – AHEG ЮНЕСКО с 22 апреля 2024 г.; планируется, что к сентябрю 2024 г. государствам-членам будет представлен первый проект нормативного акта, а в ноябре 2025 г. на 43-й сессии Генеральной конференции на рассмотрение будет вынесен окончательный текст Рекомендации[65]. При их создании учитываются положения доклада Международного комитета ЮНЕСКО по биоэтике 2021 г. «Этические проблемы нейротехнологий»[66]; в нем в числе прочего сообщается об угрозах, которые нейротехнологии представляют для прав и основных свобод, таких как целостность церебральной системы и личная идентичность.

Рекомендация об этических аспектах ИИ включает положения о том, что изложенные в ней этические принципы выступают в качестве гибкой основы для нормативной оценки, а также методического руководства в вопросах применения технологий на основе ИИ, рассматривая человеческое достоинство, благополучие человека и недопущение нанесения вреда как целевой ориентир. Указано, что развитие систем на основе ИИ поднимает этические вопросы нового типа, касающиеся, в частности, их влияния на процессы принятия решений, проблему занятости и рынок труда, взаимодействие между людьми в обществе, медицину, образование, средства информации, доступ к информации, цифровое неравенство, защиту персональных данных и потребителей, окружающую среду, демократию, верховенство закона, обеспечение безопасности и правопорядка, двойное использование, а также права человека и основные свободы, включая свободу выражения мнений, неприкосновенность частной жизни и отсутствие дискриминации.

При этом подчеркнуто, что некоторые из этих проблем обусловлены способностью ИИ-систем выполнять задачи, которые раньше были под силу только живым существам, а в ряде случаев – только человеку. В долгосрочной перспективе ИИ-системы смогут соперничать с человеком в его уникальной способности оценивать свой опыт и самостоятельно действовать, что поднимает новые вопросы, касающиеся среди прочего самосознания и самопознания человека, его взаимодействия с социумом, культурным окружением и природой, а также вопросы автономии, свободы действий, ценности и достоинства человека.

Также перечислены масштабные этические последствия применения систем на основе ИИ в основных областях деятельности ЮНЕСКО:

• в сфере образования – жизнь обществ в цифровую эпоху требует внедрения новых методов обучения, этического подхода, критического мышления, ответственных методов реализации и новых практических навыков с учетом влияния на рынок труда, возможности трудоустройства и участия граждан;

• в сфере науки (в ее самом широком смысле) – в связи с тем, что технологии на основе ИИ открывают новые исследовательские возможности и подходы, влияют на наши концепции научного понимания и объяснения окружающего мира и создают новую основу для принятия решений;

• в сфере культуры – поскольку ИИ-технологии способны как обогатить индустрию культуры и творчества, так и стать фактором концентрации предложения культурного контента, данных, рынков и доходов в руках весьма ограниченного круга хозяйствующих субъектов, что потенциально негативно отразится на разнообразии и плюрализме языков, средств информации, форм культурного самовыражения, на возможностях участия и обеспечении принципа равенства;

57

См.: Информация о домене SU // Регистратор доменных имен РЕГ.РУ. URL: https://www.reg.ru/domain/new/SU/info (дата обращения: 20.02.2022).

58

См.: Право и иные регуляторы в развитии цифровых технологий: монография / под общ. ред. А. В. Минбалеева; Институт государства и права РАН. М. – Саратов: Амирит, 2022. С. 13–14.

59

См.: Филипова И. А. Правовое регулирование искусственного интеллекта: 2-е изд., обновл. и доп. Н. Новгород: Нижегородский госуниверситет, 2022. С. 60.

60

См.: Малышкин А. В. Интегрирование искусственного интеллекта в общественную жизнь: некоторые этические и правовые проблемы // Вестник Санкт-Петербургского университета. Право. 2019. Т. 10. № 3. С. 456; Гумарова А. Н., Брызгалина Е. В. Нейроэтика: дискуссии о предмете // Эпистемология и философия науки. 2022. Т. 59. № 1. С. 136–153.

61

См.: Филипова И. А. Правовое регулирование искусственного интеллекта. 2-е изд., обновл. и доп. Н. Новгород: Нижегородский госуниверситет, 2022. С. 65–67.

62

What Happens When Our Computers Get Smarter than We are? // TED. URL: https://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are/transcript?subtitle=en (дата обращения: 20.07.2024).

63

См.: Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2016. 432 p.

64

См.: Рекомендация об этических аспектах искусственного интеллекта // Unesdoc. Цифровая библиотека. URL: https://unesdoc.unesco.org/ark:/48223/pf0000380455_rus (дата обращения: 20.07.2024).

65

См.: Этика нейротехнологий // UNESCO. URL: https://www.unesco.org/ru/ethics-neurotech (дата обращения: 20.07.2024).

66

Ethical Issues of Neurotechnology // Report, adopted in December 2021. UNESCO, 2022. 93 p.

Защита от злоупотребления искусственным интеллектом и нейротехнологиями в аспекте медиабезопасности

Подняться наверх