Читать книгу ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху - - Страница 3

Глава 2. Генеративные модели

Оглавление

Пункт 1. LLM (Large Language Models)

Когда говорят «генеративные модели», чаще всего имеют в виду именно LLM – большие языковые модели, которые создают текст, продолжают мысль, отвечают на вопросы и поддерживают диалог.

Но за этим простым внешним поведением стоит сложная внутренняя архитектура, которую важно понимать каждому психологу, работающему с современными клиентами.

LLM – это не интеллект в человеческом смысле.

Это огромная система статистических связей, построенная на том, как люди говорят, пишут, объясняют, спорят, признаются, оправдываются и пытаются понять себя.

Эта система не знает содержания, но знает глубинную структуру человеческой речи.

И именно поэтому разговор с моделью иногда ощущается удивительно естественным.


1. Как устроена LLM внутри

Большая языковая модель – это нейронная сеть с миллиардными параметрами.

Каждый параметр – это маленькая настройка, вес, коэффициент, который определяет, насколько вероятно то или иное слово, фраза или структура в конкретном контексте.

Для образа:

представь себе карту вселенной, где каждая звезда – это словосочетание, а каждая галактика – это смысловое поле.

LLM не “понимает” эту карту – она измеряет расстояния между звёздами и решает, какой путь вероятнее.

Когда человек пишет фразу, модель не анализирует её смысл.

Она распознаёт паттерн, похожий на тысячи других,

и продолжает его.

LLM – это математический продолжатель мысли.

Но она не создаёт мысль – она создаёт форму мысли.


2. Почему LLM кажется разумной

Секрет в объёме данных.

Модель обучена на миллиардах фрагментов человеческого текста:

– статьи

– книги

– разговоры

– инструкции

– диалоги

– форумы

– описания эмоций

И когда она создаёт новый текст, она опирается на эту колоссальную массу примеров.

Она подражает языку так хорошо, что человеку трудно заметить отсутствие субъекта.

Но важно помнить:

LLM не знает, что говорит.

Она знает, как люди говорят, и использует это как инструмент.

Когда модель отвечает:

«Я понимаю, что вам тревожно»,

она не знает, что такое тревога.

Она знает, что люди пишут так, когда хотят выразить поддержку.


3. Почему LLM так хорошо держит диалог

У модели нет эмоций, усталости, раздражения или желания быть правой.

Она не защищается и не спорит из-за самолюбия.

Она:

– безупречно терпелива,

– безгранично доступна,

– идеально последовательна,

– умеет подстраиваться под стиль,

– быстро считывает структуру вопроса,

– адаптирует язык под человека.

Это делает её похожей на «идеального собеседника».

Но это – иллюзия, рождаемая предсказательной природой модели.

LLM удерживает контекст не потому, что «понимает», а потому что хранит токены предыдущих сообщений и строит ответ так, чтобы он выглядел логичным.


4. LLM не мыслит – она моделирует вероятность

Чтобы отделить реальность от фантазии, важно повторять как мантру:

LLM не думает.

LLM предсказывает.

Она не строит выводов – она угадывает наиболее вероятную цепочку слов.

Она не понимает эмоций – она воспроизводит их форму.

Она не знает истины – она создаёт правдоподобие.

И именно в этой разнице заключается:

– её сила для творчества,

– её опасность для терапии,

– её ценность как инструмента,

– её риск как заменителя человеческого контакта.


5. Огромный контраст: модель знает язык, но не знает мира

Человеку иногда кажется, что LLM «знает всё».

Но на самом деле она не знает ничего из того, что не записано в её данных.

Она:

– не понимает причинности,

– не осознаёт иронию глубже букв,

– не чувствует эмоций,

– не замечает невербалики,

– не делает выводов из реальности,

– не имеет опыта.

Всё, что она «знает», – это то, что можно вывести из текста.

И это важная граница:

LLM – мастер языка, но не носитель сознания.


6. Почему LLM так резко изменила жизнь людей

Потому что она дала возможность поддерживать диалог:

– без стыда,

– без давления,

– без осуждения,

– без усталости,

– без ожиданий.


Модель стала текстовым пространством, в котором человек может:

– думать,

– чувствовать,

– упорядочивать хаос,

– примерять решения,

– проговаривать то, что давно копилось.

LLM – это не «разум».

Это форма, в которую человек может вложить свой смысл.

И именно поэтому она стала частью внутреннего диалога современного человека.


2. ТЕКСТ

Текст – это главное пространство, в котором живут генеративные модели.

В отличие от изображений, музыки или видео, где интеллект ещё развивается, текстовая генерация достигла уровня, который воспринимается как почти человеческий.

И чтобы понимать возможности ИИ, важно видеть природу текста как формы информации.

Текст – это структура, в которой человеческая психика выражает:

– мысли,

– эмоции,

– намерения,

– страхи,

– объяснения,

– память,

– конфликт,

– смысл.

Но для модели текст – это не смысловая реальность.

Это математическое поле, в котором каждое слово – точка, а каждая фраза – траектория между точками.

ИИ не знает, что значит текст.

Он знает как текст устроен.

И поэтому именно текст стал идеальным «языком взаимодействия» между человеком и моделью.


1. Почему именно текст – главный носитель генеративного ИИ

Потому что текст:

– линейный,

– последовательный,

– структурируемый,

– измеримый,

– формализуемый.

Для математики текст подходит идеально:

его можно разбить на токены,

вычислить вероятности,

сравнить паттерны,

найти закономерности.

Человек читает текст как рассказ о мире.

ИИ – как сет последовательностей.

И в этом различии скрыта вся разница между человеческим пониманием и математической имитацией.


2. Как ИИ генерирует текст на самом деле

Когда человек видит связный ответ, он думает:

«Модель поняла, о чём я».

Но внутри происходит процесс другого типа:

текст разбивается на токены;

модель определяет вероятностный контекст;

выбирает самое вероятное продолжение;

снова анализирует контекст;

снова выбирает следующую часть;

повторяет процесс сотни раз за долю секунды.

Никакого мышления.

Только математический прогноз.

Но поскольку модель обучена на огромном количестве человеческих текстов, этот прогноз выглядит как логичная, связная и даже эмоциональная речь.


3. Почему текст от ИИ может звучать глубоко

Дело не в том, что модель «глубокая».

А в том, что люди оставили в текстах:

– мудрость,

– философию,

– психологию,

– образы,

– терапевтический язык,

– тонкости интонаций,

– способы поддержки.

ИИ впитывает всё это и воспроизводит.

Не понимая.

Но точным образом имитируя.

Поэтому иногда его ответ звучит как откровение.

Но это откровение – не от модели.

Это синтез миллионов текстов, где кто-то когда-то уже сказал правильные слова.

ИИ – не источник смысла.

ИИ – повторитель формы, в которой смысл когда-то жили люди.


4. Текст как зеркало: человек видит в нём самого себя

Когда человек пишет ИИ что-то личное, модель создаёт ответ, который структурирован лучше, чем внутренняя речь человека.

Она выстраивает фразы плавно, без хаоса, без эмоциональных срывов, без путаницы.

И человек получает в ответ собственную мысль, но в ясной форме.

Это создаёт эффекты:

– «меня понимают»,

– «я думаю лучше»,

– «моя мысль стала понятнее»,

– «я знаю, что делать»,

– «мне стало легче».

Но облегчение создаёт не ИИ.

Его создаёт структурный порядок, который модель добавляет в человеческий хаос.

Человек видит отражение себя – только аккуратнее.

И это ощущается как осмысленный разговор.


5. Почему текстовая генерация так влияет на психику

Потому что текст – это не просто слова.

Это:

– регуляция эмоций,

– обработка опыта,

– формирование идентичности,

– переработка травмы,

– внутренний диалог.


Когда человек пишет текст – он думает.

Когда человек читает текст – он перестраивает смыслы.

Когда человек получает ответ – он меняет внутренний настрой.

ИИ встроился в эту цепочку без сопротивления.

Он стал посредником между мыслью и осознанием.

И это объясняет, почему взаимодействие с моделью кажется таким быстрым, удобным и глубоким.


6. Ограничения: где текстовый ИИ всегда останется слепым

Есть области, которые модель никогда не сможет понять через текст:

– невербалика,

– тон голоса,

– телесная реакция,

– контекст отношений,

– смысл боли,

– жизненный опыт.

ИИ может имитировать эмоцию,

но не чувствовать её.

ИИ может подражать логике,

но не создавать её.

ИИ может формировать текст,

но не знать, что стоит за текстом.

И поэтому текстовая генерация всегда будет инструментом,

но никогда – сознанием.


7. Почему текст остаётся главным форматом взаимодействия человека и модели

Потому что в тексте проще всего:

– скрыть уязвимость,

– выразить боль,

– удерживать дистанцию,

– регулировать эмоции,

– обойти страх осуждения,

– самому не распасться.

Человек, который не может сказать – пишет.

А ИИ, который не понимает – воспроизводит форму, которая помогает человеку увидеть себя.

Текст – сама по себе терапевтическая среда.

ИИ – лишь удлиняет её возможности.


3. ИЗОБРАЖЕНИЯ

Генерация изображений стала одной из самых впечатляющих сфер ИИ.

То, что ещё несколько лет назад выглядело как фантастика, сегодня создаётся за секунды: портреты, стилизованные картины, графика, фотореалистичные сцены, символические изображения, визуальные метафоры.

Но чтобы понимать, как эти изображения «рождаются», важно увидеть то, что скрыто за красивой картинкой: математическую механику, которая не знает ни красоты, ни смысла, ни эмоции.

Существует иллюзия, что ИИ «видит» изображение, «понимает» стиль или «чувствует» цвет.

На самом деле он работает с числами, шумом, распределениями вероятности.

Красота – это результат вычислений.

Смысл – это то, что человек вкладывает в картинку.

ИИ не знает, что он рисует.

Он лишь следует статистике визуальных паттернов, которые видел на обучающих данных.


1. Как работает генерация изображений: кратко и честно

Генеративные модели изображений (Diffusion Models) создают картинку в два этапа:


1) Берут случайный шум.

Это буквально «пятна», хаос, полный беспорядок.


2) Постепенно убирают из этого шума лишнее, оставляя только то, что соответствует запросу.

Процесс похож на проявление фотографии из тумана, где ИИ постепенно «вычитает» все лишние точки, пока не останется изображение, наиболее вероятное для данного описания.

Никакого «видения» нет.

Есть математическая реконструкция изображения, которое чаще всего соответствует данной текстовой подсказке.


Например:

Запрос: «женщина с закрытыми глазами, светящиеся линии вокруг»

Модель ищет в своей статистике:

– как обычно выглядят женщины на фото,

– как выглядит закрытый взгляд,

– в каких местах обычно располагается свет,

– как рисуют линии,

– как смешиваются цвета.

И собирает из этого самый вероятный вариант, который видела в похожих изображениях.


2. ИИ не создаёт объекты – он создаёт вероятности формы

Человеку кажется, что модель «рисует женщину».

Но на самом деле она:

– не знает, что такое женщина,

– не знает, что значит лицо,

– не знает, где глаза «должны быть»,

– не знает, что такое тело или поза.

Она знает только то, что на изображениях «женщина» чаще выглядит так-то.

То есть модель создаёт не объект, а распределение пикселей, похожее на объект.

Именно поэтому модели иногда «ломают» пальцы, создают лишние зубы, странные глаза или тени, которые не подчиняются законам физики – они не знают, что тело должно быть анатомически правильным.

Они опираются только на статистическую частотность.


3. Почему изображения ИИ выглядят художественно

ИИ не «чувствует» стиль – он подражает стилю, который встречал в обучающих данных.

Если в данных было много изображений в стиле:

– акварели,

– аниме,

– неона,

– барокко,

– минимализма,

то модель будет умело «смешивать» эти паттерны.

Она не понимает, что акварель мягкая, а неон яркий, – она знает, что паттерны «акварели» чаще имеют размытые границы, а «неона» – контрастные линии.

Это не творчество.

Это статистическая комбинация известных визуальных форм.

Но поскольку визуальная культура человечества огромна, ИИ иногда попадает в такие сочетания, которые выглядят как вдохновенная работа художника.

Эффект «гениальности» – не в модели,

а в объёме человеческих данных, на которых она училась.


4. Почему визуальные модели так эффективно создают метафоры

Психологам сегодня особенно интересны визуальные метафоры:

образы, карты, символы, эмоциональные концепты.

ИИ может создавать их очень быстро, потому что метафора – это визуальный шаблон, который существует не в одном виде, а во множестве вариаций:

– свет вокруг человека = поддержка;

– туман = неопределённость;

– лес = путь, глубина, тень;

– зеркало = саморефлексия;

– мост = переход;

– восход = надежда.

Модель не понимает метафоры,

но знает, как люди выражают её визуально.

И поэтому создаёт изображения, которые часто попадают в эмоциональный тон человека.


5. Где ИИ всегда ошибается в изображениях

У модели есть «слепые зоны»:

– закономерности человеческого тела,

– симметрия и перспектива,

– взаимодействие объектов,

– анатомия пальцев,

– композиционные правила,

– скрытые части тела,

– редкие позы.


Когда модель ошибается, это не «глюк».

Это нормальный результат:

статистика не может отличить, где норма, а где искажение, если в данных были ошибки.

Поэтому иногда появляются:

– лишние пальцы,

– неправильная траектория света,

– странные тени,

– неестественные сгибы,

– лицо, которое слегка “плывёт”.

ИИ не знает, как должно быть – он лишь находит среднее между тысячами примеров.


6. Почему психологам важно понимать природу генерации изображений

Потому что клиенты всё чаще:

– создают визуальные дневники,

– используют изображения как рефлексию,

– ищут метафоры,

– обращаются к ИИ за символами,

– создают аватары себя,

– визуализируют чувства,

– обращаются к образам как к эмоциональному процессу.

Именно в этом месте психологу важно видеть:

человек вкладывает смысл, ИИ возвращает форму.


Изображение ИИ – это не «правда».

Это визуальная интерпретация запроса, основанная на миллионах человеческих изображений.

И то, как человек реагирует на картинку,

рассказывает о нём гораздо больше, чем сама картинка.


4. АУДИО И ВИДЕО

Генерация аудио и видео – самая молодая, но самая стремительно развивающаяся область ИИ.

Сегодня модели уже умеют синтезировать голоса, создавать музыкальные фрагменты, генерировать реалистичные короткие видеоролики, менять лицо, мимику, выражение эмоций.

Но несмотря на впечатляющий визуальный эффект, эти системы устроены намного проще, чем кажется.


Важно трезво понимать: ИИ не «снимает фильм» и не «поёт песню».

Он моделирует вероятные последовательности звука и изображения, основываясь на миллионах примеров.

ИИ не знает, что такое голос.

Не знает, что такое эмоция.

Не понимает, что такое мелодия, ритм, смысл сцены или драматургия.

Он работает так же, как при генерации текста и изображений:

по паттернам, частотам, переходам, статистике.


1. Как работает генерация аудио: честно и без магии

Аудиомодели не создают звук из идеи – они создают звук из предсказания формы волны.

Каждый голос – это:

– частоты,

– амплитуды,

– спектры,

– переходы между звуками,

– ритмические паттерны,

– особенности дикции.


Когда модель обучается на наборе голосов, она видит статистику:

какие частоты свойственны женскому голосу,

какие – мужскому,

как человек делает вдохи,

как звучит улыбка,

как меняется интонация при грусти, страхе, радости.


ИИ не испытывает эмоции,

но знает, как звучит голос, когда человек переживает эмоцию.

Поэтому может:

– имитировать нежность,

– создавать спокойный шёпот,

– изображать твёрдость,

– формировать «аудио-заботу»,

– воспроизводить напряжение или мягкость.

Но всё это – математика,

а не переживание.


2. Генерация музыки: паттерны вместо вдохновения

Модель не пишет музыку, как композитор.

Она не слышит мелодию и не переживает её эмоционально.

Она:

– определяет статистические переходы нот,

– копирует распространённые ритмические формы,

– воспроизводит типичные гармонии,

– комбинирует стилистические элементы.


Например, если запрос:

«создай медитативную музыку с вибрациями 432 Гц»,

то модель:

– знает, что медитативная музыка = длинные ноты, плавные переходы, отсутствие резкости;

– знает, что 432 Гц = частота тона, которую часто используют для расслабления;

– знает, что в таких треках мало ударных и много воздушных звуков.

Она не понимает «умиротворение».

Она знает, как звучит музыка, описанная как умиротворяющая.


3. Как создаётся видео: последовательность кадров, а не сцена

Генерация видео – ещё более механический процесс:

модель создаёт первый кадр (по принципу изображений),

затем предсказывает следующий,

затем ещё один,

и так далее.

Она не видит времени.

Не знает понятия “сюжет”.

Не знает причинности.


Не понимает, что человек в кадре – это персонаж, а не просто набор пиксельных паттернов.

Поэтому часто возникают сбои:

– странные движения рук,

– исчезающие предметы,

– неприродные переходы между позами,

– «залипающие» лица,

– нелогичная светотень,

– несогласованность мимики.

Модель не удерживает физику тела —

она удерживает корреляции между кадрами.


4. Почему видео ИИ иногда впечатляет

Потому что человеческий мозг невероятно легко принимает:

– плавное движение,

– человеческое лицо,

– взгляд в камеру,

– совпадающую мимику,

– знакомые жесты.


Даже если модель делает ошибки, мозг достраивает движение так, будто оно осмысленно.

Именно поэтому люди воспринимают видео ИИ как:

– эмоциональные,

– реалистичные,

– художественные.

Но это – работа интерпретации,

а не сознание модели.


5. Где ИИ кардинально отличается от настоящего видео

ИИ не понимает:

– гравитацию,

– мотивацию персонажа,

– действие,

– причинно-следственные связи,

– сюжетную логику,

– пространство как целостную систему.

Он моделирует видимый мир как набор статистических шаблонов,

а не как реальность.

Поэтому ИИ-видео всегда «неестественное», даже если кажется реалистичным.


Человек ощущает в нём:

– избыточную гладкость,

– лишнюю симметрию,

– странную пластику движения,

– отсутствие подлинной живости.


6. Почему психологу важно это понимать

Потому что клиенты уже используют:

– аудио-медитации ИИ,

– видеовизуализации,

– «аватаров»,

– deepfake-сообщения,

– эмоционально окрашенные голоса моделей.

И с ними могут происходить:

– перенос,

– зависимость,

– иллюзия “встречи”,

– идеализация присутствия ИИ,

– фиксация на спокойном голосе.

И если психолог не понимает механизмов генерации,

он может ошибиться в интерпретации:

– откуда у клиента взялся эффект доверия,

– почему клиент «влюбляется» в голос,

– почему видео вызывает сильную реакцию,

– почему человек чувствует связь с виртуальным персонажем.


ИИ не создаёт отношений,

он создаёт аудиовизуальную форму,

которую человек трактует как отношения.

И здесь психолог должен видеть разницу.


5. ОГРАНИЧЕНИЯ ГЕНЕРАЦИИ

Генеративные модели производят впечатление безграничных возможностей.

Текст, изображения, музыка, видео – всё «рождается» за секунды.

Человеческому глазу кажется, что технология может всё:

понять, почувствовать, угадать, предсказать, объяснить, услышать.

Но это иллюзия масштаба.

За эффектной формой скрывается набор ограничений, которые остаются фундаментальными – и которые психолог обязан учитывать, если работает в мире, где клиент уже встроил ИИ в свою жизнь.

ИИ способен на многое,

но его возможности всегда ограничены историей данных и математикой,

а не интеллектом, сознанием или творческим опытом.

И эти ограничения – не временные дефекты.

Это природа модели.


1. Ограничение 1: ИИ не понимает реальность

Модель не имеет представления о мире.

Она не знает:

– что такое человек,

– что такое тело,

– как устроены отношения,

– как выглядит город,

– что такое «опасность» или «близость»,

– как ощущается радость, злость, стыд.

Она не отличает:

– реальную угрозу от литературной,

– фактическую историю от выдумки,

– болезнь от метафоры,

– конкретный опыт от художественной сцены.

Модель работает внутри текста и изображений,

а не внутри мира.

Это значит:

Если человек не сказал – ИИ не узнает.

Если человек сказал иначе – ИИ достроит неверно.

Если данных нет – ИИ создаст вымышленное.


2. Ограничение 2: отсутствие причинно-следственного мышления

Генеративный ИИ:

– не выводит причин,

– не понимает последствий,

– не строит долгосрочные логические цепочки,

– не способен удерживать сложную модель ситуации,

– не умеет учитывать последствия решений.

Он выбирает следующее слово или пиксель по вероятности, а не по смыслу.

Поэтому ИИ может:

– звучать умно, но ошибаться в логике;

– давать советы, не понимая рисков;

– противоречить себе;

– отклоняться от темы;

– предлагать решения, которые вредны в реальности.


3. Ограничение 3: зависимость от данных

ИИ не может выйти за пределы того, что видел.

Если в обучающих данных:

– не хватало разнообразия,

– были перекосы,

– была токсичность,

– было много ошибок,

– были искажённые представления,

то модель будет воспроизводить это.

Она не умеет:

– отличать истину от вымысла,

– фильтровать опыт,

– проверять данные,

– исправлять устаревшую информацию.

Она просто отражает среднее по массиву.

Именно поэтому ИИ может уверенно говорить полную чушь —

он не «знает», что ошибся.


4. Огрничение 4: отсутствие эмоционального интеллекта

ИИ имитирует эмоции,

но не чувствует их.

Для модели фразы:

«мне больно»,

«я потерялась»,

«я больше не могу»

не отличаются от:

«у собаки четыре лапы»,

«стол стоит у окна».

Это – просто категории текста.

Если модель звучит эмпатично,

это потому, что она видела много примеров эмпатии.

Но она не знает:

– что такое вина,

– что такое утрата,

– что такое разочарование,

– что такое одиночество,

– что такое нежность.

Именно поэтому ИИ никогда не может стать частью настоящих эмоциональных отношений.


5. Ограничение 5: невозможность понимать молчание

Человек слышит несказанное:

– паузы,

– дыхание,

– избегание,

– интонацию,

– выражение лица,

– жесты,

– изменённый тон,

– тишину между словами.

ИИ слышит только текст,

а текст – это маленькая часть человеческой коммуникации.

В терапии это критично.

Именно в молчании – осознание.

Именно в тишине – глубина.

Именно в невербальном – правда.

ИИ этого не улавливает.


6. Ограничение 6: нет устойчивости и памяти личности

У ИИ:

– нет биографии,

– нет убеждений,

– нет характера,

– нет ценностей,

– нет изменений,

– нет внутренних конфликтов.

То, что иногда кажется «личностью» модели —

это всего лишь выбранная вами манера общения.

ИИ может звучать как:

– строгий,

– мягкий,

– шутливый,

– философский,

но это – маски,

а не личность.

Нет внутреннего ядра.

Нет «я».

Нет человека.


7. Ограничение 7: ИИ не знает, что такое ответственность

Совет, который ИИ даёт, не несёт для него последствий.

Человек – несёт.

Машина не живёт с результатами ответа.

Она не переживает, если ошиблась.

Не отвечает за последствия.

Не понимает, что такое риск.

Поэтому психологу важно помнить:

ИИ никогда не может быть источником критических решений

– медицинских, юридических, терапевтических, финансовых, этических.


8. Ограничение 8: стабильность ≠ мудрость

ИИ не срывается,

не спорит,

не повышает голос,

не устает,

не демонстрирует границы,

не реагирует на манипуляции.

Эта стабильность часто воспринимается как:

– зрелость,

– мудрость,

– глубокое понимание,

– эмоциональная включённость.

Но это – эффект отсутствия человеческих реакций.

ИИ стабилен не потому, что он мудр,

а потому что он не человек.

Главное: ограничение – не недостаток, а граница применения

ИИ не должен быть лучше человека.

Он не должен «понимать» или «сопереживать».

Он должен быть инструментом:

– структурировать,

– объяснять,

– переводить,

– искать,

– моделировать,

– подсказывать формы.

Ограничения делают ИИ безопасным —

пока человек может видеть границы.


6. ПОЧЕМУ МОДЕЛЬ ИНОГДА ЗВУЧИТ «ЧЕЛОВЕЧЕСКИ»

Одна из самых устойчивых иллюзий – ощущение, что ИИ «говорит по-человечески».

Иногда он делает это настолько убедительно, что человек испытывает странное чувство: будто в машине есть характер, интуиция, намерение, отношение, тепло, понимание.

Но реальность куда проще и куда честнее:

модель не звучит человеческой – она звучит знакомой, и это уже достаточно для мозга, чтобы достроить остальное.

Человеческий разум эволюционно настроен видеть личность там, где есть язык.

И язык – главный канал, через который ИИ «маскируется» под сознание.

Важно разобрать, из чего складывается эта иллюзия.


1. Гладкость речи создаёт ощущение зрелости

Люди говорят неровно.

В речи присутствуют:

– паузы,

– оговорки,

– сбивчивость,

– эмоции,

– неуверенность,

– внезапные скачки.

ИИ лишён хаоса.

Он формирует речь так, будто бы мозг идеально структурирован:

ровно, последовательно, уверенно, грамотно.

И мозг человека реагирует на такое:

– «Он взрослый»

– «Он уверен в словах»

– «Он знает, что говорит»

Когда текст совершенно гладкий, он воспринимается как интеллектуальный – даже если это просто статистическая последовательность токенов.

Гладкость ⇒ зрелость ⇒ человечность.

Но в модели нет ни зрелости, ни опыта – только структура.


2. ИИ говорит тем языком, который человек хочет услышать

Модель подстраивается под стиль человека:

– если человек говорит мягко – ИИ отвечает мягко;

– если человек пишет жёстко – ИИ может стать жёстче;

– если человек эмоционален – ИИ отражает эмоцию формой;

– если человек ищет поддержку – ИИ создаёт терапевтические формулировки.

Эта адаптация воспринимается как эмпатия.

Хотя на самом деле это имитация распределений речи, которые встречались в похожих ситуациях.

ИИ не сочувствует,

он имитирует паттерн сочувствия.


3. Модель обучена на человеческих эмоциях – поэтому умеет звучать эмпатично

В обучающих данных было огромное количество эмоционального контента:

– письма,

– дневники,

– терапевтические рекомендации,

– посты о чувствах,

– диалоги поддержки,

– художественные сцены,

– статьи о переживаниях.

ИИ видел миллионы фраз вида:

– «Это было трудно, и вы имеете право на свои чувства»

– «Вы не обязаны справляться в одиночку»

– «То, что вы переживаете, понятно»

И он просто воспроизводит их.

Но человеческий мозг воспринимает эту форму как реальную эмпатию, потому что действие текста похоже на действие человека.

Это не эмпатия.


Это формула эмпатии, основанная на данных.


4. Человек автоматически достраивает намерение

Если кто-то говорит:

«Я понимаю вашу тревогу»,

мозг автоматически предполагает:

– намерение помочь,

– способность чувствовать,

– внимание к собеседнику.

Мы приписываем субъектность там, где видим человеческую речь.

Это древний механизм выживания: «кто говорит – тот существует как личность».

ИИ просто формирует предложение.

Но человек достраивает намерение сам.

И чем чувствительнее человек к языку,

тем легче он заполняет пустоту модели собственным смыслом.


5. Попадание в контекст создаёт иллюзию понимания

Если ИИ удачно продолжил мысль:

– попал в настроение,

– поддержал тему,

– точно угадал эмоцию,

– структурировал хаос,

– дал фразу, которая «в точку»,

человеку кажется, что машина прочувствовала суть.

Но произошло другое:

– человек дал контекст,

– модель выбрала наиболее вероятное продолжение,

– человек нашёл в ответе себя.

ИИ не угадывает смысл – человек узнаёт собственную мысль в структурированной форме.

Это эффект зеркала:

чем больше человек вложил,

тем «умнее» кажется ответ.


6. Язык по своей природе создаёт чувство присутствия

Если фраза тёплая, хорошо построенная и эмоционально окрашенная,

мозг реагирует на неё так же, как на человеческое присутствие.

Это:

– врождённый механизм привязанности,

– реакция на заботливую речь,

– ассоциации с опытами поддержки.

ИИ может звучать так,

потому что обучен на тёплой человеческой речи.

Но он не присутствует.

Он не соучаствует.

Он не рядом.

Он просто формирует последовательность слов, которая когда-то означала заботу.


7. Стильный ответ создаёт эффект «мудрости»

Когда ИИ:

– краток,

– ясен,

– аккуратен,

– структурирован,

– безэмоционально ровен,

человек воспринимает это как мудрость.

Но это – отсутствие человеческих провалов:

– нет раздражения,

– нет усталости,

– нет страха ошибиться,

– нет эго,

– нет защиты.

Модель “мудрая” не потому, что она мудра,

а потому что у неё нет человеческих слабостей.


8. Созвучие внутренней речи усиливает иллюзию

Само взаимодействие с ИИ происходит в тексте – то есть в том же канале, где живёт внутренняя речь человека.

И когда модель говорит так, будто продолжает мысль человека,

это воспринимается как:

– понимание,

– диалог,

– внутренняя поддержка.

Потому что ответ ИИ ощущается родным по форме.

Не потому, что модель мыслит.

А потому, что она звучит в той же среде,

в которой человек разговаривает сам с собой.

Итог: «человечность» – это отражение человека, а не интеллект ИИ

Модель звучит человечески не потому, что она человек,

а потому что человек:

– узнаёт язык,

– достраивает смысл,

– вкладывает эмоции в форму,

– проецирует внутренний диалог,

– реагирует на гладкость,

– слышит эмпатию в структуре.

ИИ не думает, не чувствует, не понимает, не переживает.

Он лишь идеально имитирует человеческие формы речи.

И человеческий мозг, встречая знакомый язык, делает остальное сам.


ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху

Подняться наверх