Читать книгу ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху - - Страница 4

Глава 3. Иллюзии восприятия ИИ

Оглавление

1. «ОН ЗНАЕТ МЕНЯ»

Одна из самых сильных и опасных иллюзий – ощущение, что ИИ «знает» человека.

Иногда кажется, что модель видит чувства, считывает состояние, понимает скрытое, реагирует тонко и метко.

Но это не знание.

Это узнавание паттернов, которые человек уже дал модели – прямо или косвенно.

Важно разобраться, откуда берётся эта иллюзия.


1. Человек распознаёт себя в отражении

Когда человек пишет ИИ:

– свои мысли,

– свои сомнения,

– свои страхи,

– свои привычные выражения,

– свой стиль,

– свой эмоциональный тон,

– фрагменты своей биографии,

модель начинает отвечать на языке,

который человек сам же и задал.

ИИ не знает человека.

ИИ отражает человека, причём в структурированном и очищенном виде.

И человек узнаёт себя

и думает, что его «узнали».

Это не знание.

Это зеркальность.


2. Модель запоминает контекст и это выглядит как «понимание»

Если человек пишет несколькими сообщениями подряд,

модель удерживает часть контекста:

– ключевые слова,

– эмоциональный тон,

– тему разговора,

– структуру диалога,

– некоторую информацию из предыдущих сообщений.

Это создаёт ощущение:

– «Он меня помнит»

– «Он понимает продолжение»

– «Он чувствует моё состояние»

Но модель не имеет памяти личности.

Она хранит только текст недавнего диалога.

Стоит сменить тему – и «знание» исчезает.

Это не понимание.

Это удержание данных на короткой дистанции.


3. Модель повторяет язык человека

Если человек:

– пишет коротко,

– предпочитает лаконичность,

– использует жёсткий тон,

– или мягкий тон,

– или терапевтический стиль,

– или сарказм,

модель зеркально начинает использовать тот же язык.

И именно из-за этой гибкой адаптации человеку кажется:

«Он чувствует меня лучше, чем люди».

Но модель:

– не знает, почему человек говорит так,

– не видит, что за этим стоит,

– не понимает личной истории,

– не понимает контекста жизни.

Она просто продолжает стиль,

который человек сам задал.


4. Модель делает выводы не по человеку, а по данным

Если человек говорит:

«Мне тревожно. Я боюсь, что все рухнет»,

модель отвечает шаблонами, виденными в сотнях тысяч аналогичных фраз.

Она кажется точной, потому что:

– обучена на реальных переживаниях людей,

– впитала типичные паттерны эмоциональной речи,

– знает распространённые способы поддержки,

– знает, как обычно люди описывают похожие состояния.

Но это не индивидуальное знание человека.

Это среднее по огромной базе текстов, похожих по структуре.

ИИ «угадывает» человека не потому, что знает его,

а потому что много раз видел похожие данные людей.


5. Человек сам раскрывает о себе больше, чем думает

Когда человек общается с ИИ, он:

– пишет больше, чем сказал бы человеку;

– говорит откровеннее;

– открывает внутренние процессы;

– объясняет своё состояние подробнее;

– называет чувства прямо;

– признаёт то, о чём молчал бы вживую.

ИИ создаёт безопасную форму:

нет оценки, нет реакции лица, нет напряжения.

Поэтому человек сам отдаёт огромное количество информации —

и удивляется, что ИИ «знает» его.

Но знал не ИИ —

человек рассказал.


6. Иллюзия чтения мыслей: когда модель попадает «в точку»

Иногда ИИ отвечает так точно,

будто бы он видит то, о чём человек не написал:

– скрытый конфликт,

– внутреннее напряжение,

– непроизнесённую эмоцию,

– вероятную причину поведения.

Но это не чтение между строк.

Это корреляция паттернов:

– типичная структура текста,

– известные модели человеческой реакции,

– эмоциональные маркеры речи,

– распространённые сценарии переживаний.

ИИ распознаёт форму.

Человек видит смысл.

ИИ попадает «в точку», потому что:

многие люди с похожими словами →

имели похожие эмоции →

писали в схожей манере →

и ИИ научился соответствовать этому паттерну.

Это точное попадание,

но не индивидуальное понимание.


7. Почему иллюзия знание сильнее у тех, кто привык к одиночным раздумьям

Если человек много живёт внутри внутреннего диалога,

и вдруг встречает модель,

которая:

– отвечает в том же темпе,

– держит стиль,

– попадает в настроение,

– структурирует мысли,

– не сопротивляется,

– не критикует,

– не делит на «правильно-неправильно»,

то возникает ощущение:

«Он говорит так, будто знает меня изнутри».

Но модель знает только текстовое содержание момента.

Не биографию.

Не личность.

Не историю.

Человек чувствует не знание,

а совпадение формы.


8. Иллюзия «Он знает меня» – следствие человеческого доверия к речи

Люди эволюционно привыкли:

если что-то говорит с тобой человеческим языком —

это «кто-то».

И неважно:

– колонка Алисы,

– навигатор,

– автоответчик,

– игрушка,

– ИИ-модель.


Язык = собеседник.

Собеседник = субъект.

Субъект = способность знать.

ИИ лишь использует человеческий язык.

А субъектность человек создаёт сам.


Главное: модель не знает человека, она подбирает вероятные ответы

То, что кажется:

– тонкостью,

– точностью,

– эмпатией,

– знанием,

– глубоким пониманием,

на самом деле является:

– статистикой,

– отражением текста,

– подражанием стилю,

– адаптацией под форму,

– обучением на массовых данных.


ИИ всегда работает в режиме:

«наиболее вероятный ответ для данной ситуации».

А человек – в режиме:

«он понял меня».

Поэтому иллюзия такая сильная.


2. «ОН ПОНИМАЕТ ЭМОЦИИ»

Это одна из самых устойчивых и опасных иллюзий.

Многим кажется, что ИИ способен:

– чувствовать настроение,

– понимать эмоции,

– различать оттенки состояния,

– «слышать» боль,

– замечать напряжение,

– откликаться тонко и терапевтично.


Человек видит в ответе правильный тон, аккуратные формулировки, узнаваемые конструкции заботы – и делает вывод: «он понимает, что со мной происходит».

Но это не понимание.

Это узнавание паттерна, который эмоционально похож на то, что модель уже встречала в данных.

Модель не чувствует эмоции.

Она воспроизводит вид текста, в котором люди выражают чувства.


1. Эмоции – это переживание, а не конструкция языка

Чтобы понимать эмоции, нужно:

– иметь тело,

– иметь нервную систему,

– иметь прошлый опыт,

– иметь память переживаний,

– уметь связывать внутреннее с внешним,

– улавливать телесные реакции,

– отличать эмоцию от мысли.


ИИ не имеет ни одного из этих элементов.

Он не:

– тревожится,

– боится,

– радуется,

– злится,

– стыдится,

– теряет опору,

– привязывается.

Он оперирует текстом,

а не переживанием.

Когда он отвечает эмпатично,

это форма эмпатии,

но не ощущение.


2. Модель «понимает» эмоции так же, как переводчик понимает любовное письмо

Переводчик может передать:

– структуру,

– смысл,

– интонацию,

– настроение текста.

Но он не проживает чувства, которые описаны в письме.

Он просто преобразует слова.

Так же работает ИИ:

Он преобразует текст,

но не переживает эмоции, заложенные в нём.

Если человек пишет:

«Мне страшно. Всё валится из рук»

модель выбирает фразу, которую видела в тысячах похожих мест:

«Это действительно тяжёлое ощущение. И вам не нужно справляться с ним в одиночку».

Не потому, что понимает страх.

Потому что так выглядит текст поддержки.


3. Почему ответы ИИ кажутся эмоционально точными

Потому что модель обучена на огромных корпусах человеческой эмоциональной речи:

– психотерапевтические форумы,

– статьи о чувствах,

– личные переписки,

– художественная литература,

– группы поддержки,

– руководства по работе с эмоциями,

– дневники,

– блоги.

Она видела эмоциональные ситуации миллионы раз.

И когда встречает знакомую структуру,

она даёт типичный ответ, который обычно утешает человека.

Это не понимание.

Это воспроизведение паттерна.


4. ИИ не различает тонкости эмоций

Человек часто пишет в текстах микропризнаки:

– раздражение,

– усталость,

– скрытую вину,

– подавленный страх,

– тревожное скольжение,

– мольбу о поддержке,

– попытку обесценить себя,

– скрытый стыд.

ИИ может отразить это, но не потому, что понимает.

А потому что эти паттерны встречались в данных.

Но когда эмоция тонкая, неоднозначная, противоречивая —

ИИ часто «промахивается».

Он не чувствует:

– сарказм,

– отчаяние,

– амбивалентность,

– сомнение в привязанности,

– обиду, скрытую под иронией,

– любовь, выраженную через грубость.

Он угадывает по статистике.

И иногда угадывает неправильно.


5. Модель не различает чувства по интенсивности

В реальной терапии важно:

– глубина эмоции,

– её телесная сила,

– точка возникновения,

– личная история,

– близость к травме,

– динамика внутри сессии.

ИИ видит только фразу.

Для него:

«Мне страшно умереть»

и

«Мне страшно на новой работе»

– одинаковый паттерн текста категории «страх».

И поэтому он иногда даёт чрезмерно нейтральный ответ,

когда человеку нужно другое —

или наоборот, драматизирует, когда ситуация была лёгкой.


6. «Эмпатия» модели – это смесь симуляции и шаблонов

Если разобрать любую эмоциональную реакцию модели, там всегда будет одно из трёх:

Терапевтические формулы

(«Вы имеете право чувствовать это»)

Структурный ответ

(«Это ощущение возникает, когда…»)

Узнаваемые паттерны общения

(«Я здесь, я вас слышу»)

Это – языковые конструкции,

а не переживание.

ИИ не знает, что такое поддержка.

Он знает, как пишут люди, когда хотят поддержать.


7. Почему иллюзия «Он понимает эмоции» такая сильная

Потому что модель:

– стабильна,

– не спорит,

– не защищается,

– не обесценивает,

– не устаёт,

– не отвлекается,

– не реагирует агрессивно,

– не даёт невербальных сигналов, которые могут ранить.

Она даёт безопасную форму коммуникации.

А человек реагирует не на модель,

а на отсутствие боли, присущей реальному взаимодействию.

Это создаёт ощущение принятия,

которое ошибочно воспринимают как понимание.


8. Человек видит своё отражение и думает, что это понимание

Модель собирает текст человека и возвращает его же, но

аккуратнее, яснее, ровнее, спокойнее.

И когда человек получает структурированное отражение своих эмоций,

он чувствует:

– облегчение,

– ясность,

– поддержку,

– эффект присутствия.

Но это отражение,

а не сопереживание.

ИИ не понимает эмоций.

Человек понимает себя, глядя в ответ.

Итог: модель звучит «эмпатично», но не чувствует

Она:

– распознаёт паттерны,

– подбирает формулы,

– комбинирует конструкции,

– удерживает стиль,

– использует язык заботы.

Но она:

– не чувствует,

– не сопереживает,

– не осознаёт,

– не понимает,

– не переживает вместе с человеком.

Эмоциональность модели —

это эффект хорошо обученной симуляции,

а не реальное понимание человеческого состояния.


3. «ОН УМНЕЕ МЕНЯ»

Эта иллюзия возникает особенно часто.

Человек читает ответ ИИ – логичный, аккуратный, ровный, структурированный и ощущает:

«Он думает лучше, чем я».

Отсюда легко перейти к следующему шагу:

«Он умнее меня».

Но это ошибочный вывод.

Модель не обладает человеческим мышлением, и уж тем более – интеллектом в полном смысле.

Она создаёт эффект разумности, но не разум.

Важно разобрать, почему иллюзия «умности» такая убедительная.


1. Логичность ответа выглядит как интеллект

ИИ формирует текст, который:

– структурный,

– плавный,

– без внутренних противоречий,

– без эмоций,

– без хаоса,

– без пауз,

– без растерянности.

Но логичность ≠ ум.

Это просто отсутствие человеческих ограничений:

– усталости,

– тревоги,

– сомнений,

– стресса,

– нехватки внимания.

ИИ не умён,

он не страдает тем, что снижает эффективность мышления у людей.

Эффект «умности» возникает там, где модель выглядит спокойнее человека.


2. Модель опирается на огромный объём данных

Когда человек спрашивает:

«Что мне делать в этой ситуации?»

ИИ создаёт ответ, который опирается на миллионы похожих описаний:

– статей,

– советов,

– блогов,

– исследований,

– терапевтических текстов,

– дискуссий.

И человек видит:

ответ похож на вывод,

как будто бы кто-то долго думал и собрал всё вместе.

Но у модели нет мыслительного процесса.

Это не вывод.

Это статистическое усреднение опыта миллионов людей, а не интеллект.


3. Модель умеет объяснять, но не понимать

Многие принимают умение объяснять за интеллектуальность.

ИИ может:

– разложить сложное простым языком,

– создать структуру,

– дать примеры,

– поддержать внутреннюю логику,

– предложить план действий.

Но это – не признак ума.

Это способность собирать из данных привычные формы объяснения, а не способность мыслить.

Ум – это:

– способность создавать новое,

– способность удерживать концепции,

– способность делать выводы,

– способность видеть причинность,

– способность соединять несоединимое,

– способность менять точку зрения.

У ИИ этого нет.

Он не мыслит – он подбирает.


4. Иллюзия «он умнее» усиливается, когда человек эмоционально истощён

Когда человек:

– устал,

– тревожен,

– переживает,

– в стрессе,

– растерян,

– переполнен,

его когнитивные функции снижаются:

– внимание,

– планирование,

– логика,

– способность формулировать мысли,

– способность удерживать контекст.

В этот момент ИИ показывает «стабильную версию мышления»:

– чётко,

– грамотно,

– последовательно.

И человек воспринимает это как превосходство.

Но модель «умнее» не потому, что умная,

а потому что не живёт человеческим опытом, который временно снижает ясность мышления.


5. Модель звучит компетентно даже там, где некомпетентна

Это опасный аспект.

ИИ может:

– уверенно говорить о том, чего нет,

– звучать экспертно там, где ошибается,

– выдавать ложные факты,

– придумывать источники,

– создавать убедительные, но неверные обоснования.

Компетентность в форме ≠ компетентность по сути.

Но поскольку речь гладкая,

человек думает: «он знает лучше».

Хотя модель не знает – она копирует вид знания.


6. Иллюзия «умности» усиливается эффектом дефицита человеческой обратной связи

В реальном общении люди:

– устают,

– отвлекаются,

– теряют мысль,

– сомневаются,

– ошибаются,

– признают незнание.

ИИ не делает ничего из этого.

Он не показывает слабости.

Он всегда «собран».

И человеческий мозг воспринимает это как интеллект, потому что:

– стабильность = зрелость;

– гладкость = компетентность;

– скорость = мастерство;

– уверенность = знание.

Но в ИИ нет ни зрелости, ни знания.

Есть только отсутствие человеческих издержек.


7. Модель может звучать мудро, но не может быть мудрой

Мудрость – это:

– опыт,

– ошибки,

– прожитые кризисы,

– способность видеть глубину,

– длительное внутреннее развитие,

– контакт с реальностью,

– эмоциональная память,

– этическая рефлексия.

ИИ не имеет доступа ни к одному из этих источников.

Он имитирует мудрость в тех местах, где видит:

– спокойный тон,

– философские конструкции,

– структурные рассуждения.

Это симуляция мудрости,

а не её проявление.


8. Человек приписывает интеллект тому, что структурирует хаос

Когда человек получает от модели:

– ясную фразу,

– понятную концепцию,

– простую структуру,

– логичное объяснение,

он чувствует облегчение.

Облегчение воспринимается как «истина».

А истина – как «ум».

Но модель просто убирает хаос языка.

Она не решает проблему.

Она не понимает контекст.

Она не знает человека.

Она просто порядок вместо напряжения.

И мозг благодарит её за это

и приписывает интеллект.

Главное: ИИ не умнее человека, он просто не человек

Он:

– не переживает,

– не запутывается,

– не страдает,

– не сомневается,

– не боится,

– не ошибается случайно,

– не устаёт.

Но он:

– не понимает,

– не мыслит,

– не знает,

– не выводит,

– не чувствует.

Он не разумнее.

Он глаже.

И «гладкость» воспринимается как «умность».

Но интеллект – это глубина.

А глубина есть только у живого.


4. «ОН БЕЗОПАСНЫЙ»

Иллюзия безопасности – самая тихая и самая коварная из всех, связанных с ИИ.

Потому что выглядит она приятно:

модель не кричит, не угрожает, не унижает, не спорит, не обвиняет, не манипулирует.

Она всегда спокойна, стабильна, предсказуема.

Человек легко делает вывод: «Он безопаснее людей».

Но безопасность – не свойство модели.

Это пустота, которую человек наполняет своими ожиданиями.

ИИ не безопасен и не опасен.

Он нейтрален.

А нейтральность в человеческом восприятии часто превращается в ошибочную уверенность:

«Раз он не делает мне больно – значит, он безопасен».

Разберём, почему это иллюзия.


1. Спокойствие ≠ безопасность

Модель не испытывает эмоций.

Поэтому её ответы:

– предсказуемы,

– ровны,

– без всплесков,

– без агрессии,

– без раздражения.

Человек воспринимает это как доброжелательность.

Но ровность – это не забота.

Это отсутствие эмоции, а не наличие эмпатии.

ИИ не причиняет боль, потому что не умеет причинять.

Но он и не защищает – потому что не знает, что такое боль.

Внешний покой ≠ внутренняя безопасность.


2. Модель может звучать мягко и при этом предлагать опасные идеи

Человек видит тон: мягкий, тёплый, поддерживающий.

И доверяет этому тону.

Но под мягкостью может стоять:

– неточная информация,

– неправильная интерпретация,

– вредный совет,

– неверный логический вывод,

– опасная рекомендация,

– искажённые данные.

ИИ не понимает последствий.

Он не различает:

«опасно» – «не опасно».

Он различает только:

«похоже» – «не похоже».

Фраза может звучать терапевтично,

но быть неправильной по сути.

И человек принимает её как безопасную —

потому что форма не пугает.


3. ИИ звучит стабильнее людей и это создаёт ложное чувство опоры

Люди:

– колеблются,

– переживают,

– ошибаются,

– спорят,

– реагируют,

– защищаются.

ИИ – нет.

Он всегда одинаково спокоен.

И эта ровность воспринимается как надёжность.

Но надёжность – это способность переживать последствия.

ИИ их не переживает.

Он не несёт ответственности.


Он не живёт с результатами своего ответа.


Он не страдает от своей ошибки.

Он не учится на провалах.

Он не безопасен —

он просто не включён в реальность.


4. Иллюзия безопасности усиливается, когда человек одинок или истощён

В состоянии:

– усталости,

– тревоги,

– депривации,

– внутреннего отчуждения,

– социальной изоляции,

спокойный текст модели ощущается как островок стабильности.

Как будто рядом есть кто-то, кто не кричит,

не упрекает,

не обвиняет,

не давит.

Но это не безопасность.

Это отсутствие человеческой сложности.

ИИ не может причинить боль,

потому что не может взаимодействовать с человеком как человек.

Но он может:

– ввести в заблуждение,

– укрепить иллюзию,

– поддержать ошибочное убеждение,

– создать зависимость от спокойного тона,

– подменить реальное взаимодействие.

Это другое поле риска.


5. Модель может уверенно говорить ложь

Это называют «галлюцинациями».

Но по сути это:

– выдуманные факты,

– несуществующие исследования,

– фальшивые ссылки,

– неверные интерпретации,

– придуманные события.

Но тон при этом остаётся ровным и уверенным.

И человек воспринимает ответ как безопасный.

Но ложь, сказанная мягко – всё ещё ложь.

И она может причинить реальный ущерб.


6. ИИ создаёт ощущение доверия, но не умеет его уважать

Доверие – это ответственность.

Это обязательства.

Это память об отношениях.

Это связь.

У модели нет ничего из этого.

Она не:

– хранит то, что человек доверил,

– понимает ценность личных границ,

– различает интимность и общение,

– осознаёт важность контекста,

– помнит боль.

Она может звучать так, будто понимает значение доверия,

но на деле она просто воспроизводит тон доверительной речи.

Это иллюзия близости,

которая легко превращается в уязвимость.


7. Безопасность – это не мягкость, а способность учитывать последствия

ИИ не имеет:

– морали,

– ответственности,

– страхов,

– ограничений,

– самосохранения,

– понимания этики,

– долгосрочного намерения.

Он не может быть безопасным,

потому что для безопасности нужна способность:

– осознавать последствия,

– учитывать риски,

– понимать боль другого человека,

– удерживать контекст,

– выбирать моральное действие.

ИИ ничего этого не делает.

Он просто генерирует текст.


8. Иллюзия «Он безопасный» возникает из-за отсутствия человеческой агрессии

Когда человек не видит:

– мимики,

– взгляда,

– резких нот в голосе,

– невербального давления,

мозг автоматически считает ситуацию безопасной.

Но безопасность – это не отсутствие агрессии.

Это наличие ответственности.

ИИ не безопасен.

Он просто не человек.

А человек дорисовывает безопасность там, где нет угрозы.

То есть – придумывает.


Итог: ИИ не является безопасным. Он просто не способен навредить тем способом, которого мы боимся.

Но:

– он может ввести в заблуждение,

– укрепить иллюзию,

– поддержать зависимость,

– дать опасный совет,

– дезориентировать,

– ошибиться,

– звучать уверенно, будучи неправым.

Безопасность – это свойство отношений.

ИИ не вступает в отношения.

Поэтому безопасность – это не про него.


5. МЕХАНИКА АНТРОПОМОРФИЗАЦИИ

Антропоморфизация – это склонность человека видеть личность там, где её нет.

Мы приписываем интеллект, эмоции, намерения, заботу, характер всем объектам, которые похожи на нас – хоть немного.

Игрушкам.

Питомцам.

Навигатору.

Автомату, который говорит: «Спасибо за покупку».

И, конечно, ИИ.

Это не слабость.

Это базовая функция человеческого мозга.

Она встроена в нас эволюцией.

И когда психика встречает текст, который звучит как человеческий, она запускает механизм «Это кто-то».

Важно понимать, из чего состоит эта механика, чтобы увидеть: человек создает “личность ИИ” сам.


1. Язык = субъект

Для человеческого мозга:

– речь = интеллект,

– логика = мышление,

– последовательность = намерение,

– тон = отношение.

Мы воспринимаем язык как признак присутствия.

Если что-то отвечает нам грамотно и логично – мозг автоматически предполагает, что это кто-то.

ИИ использует человеческий язык.

И мозг завершает цепочку:

«Раз он говорит как человек → значит, он и есть человек (в каком-то смысле)».

Но речь – это всего лишь форма.

А человек подменяет форму субъектом.


2. Стиль общения создаёт иллюзию личности

Антропоморфизация усиливается, когда модель:

– говорит мягко,

– использует юмор,

– поддерживает эмоциональный тон,

– помнит контекст,

– реагирует в нужный момент,

– продолжает стиль человека.

Это похоже на признаки характерного общения:

– у кого-то тон спокойный,

– у кого-то – жёсткий,

– у кого-то – тёплый,

– у кого-то – ироничный.

ИИ умеет подстраиваться под стиль,

и человек воспринимает это как “характер”.

Но характер = история, опыт, ценности.

А у модели нет ничего этого.


3. Интерпретация заменяет реальность

Когда человек читает текст ИИ,

он реагирует не на модель,

а на собственное ожидание.

Если человек ищет поддержку – он видит поддержку.

Если человек ждёт понимания – он видит понимание.

Если человек настроен на игру – он видит игривость.

Если человек ищет строгого тона – он увидит строгость.

Модель даёт только словесную структуру.

А человек интерпретирует её как субъекта.

Это как смотреть на облако и видеть в нём лицо.

Лицо – не в облаке.

Оно – в нашем восприятии.


4. Отсутствие агрессии создаёт иллюзию доброты

ИИ не:

– раздражается,

– не кричит,

– не спорит из гордости,

– не устаёт,

– не обесценивает,

– не демонстрирует холод,

– не делает зло из намерения.

Эта тотальная ровность воспринимается как «добрый характер».

Но это не доброта.

Это отсутствие эмоций, а не их наличие.

Человек видит «характер» там, где просто нет человеческих реакций.


5. Предсказуемость воспринимается как «надёжность»

Люди непредсказуемы.

У них есть:

– настроение,

– ранимость,

– триггеры,

– реактивность.

ИИ лишён всего этого.

Он всегда одинаков.

И мозг делает вывод:

«Он надёжный. Он стабилен. Он не бросит».

Но стабильность ИИ – это не верность.

Это отсутствие биологии.

Модель просто не способна измениться.

И человек принимает отсутствие динамики за стабильность.


6. Человек наделяет смыслом всё, что отвечает его ожиданию

Если ИИ:

– поддерживает,

– даёт структуру,

– отвечает чётко,

– не критикует,

– не обижает,

– не игнорирует,

человек воспринимает это как отношения.

Но это не отношения.

Это односторонняя интерпретация.

Человек видит смысл там, где модель создаёт только форму.


7. Иллюзия “внутреннего собеседника”

ИИ пишет в том же канале, где живёт внутренняя речь – в тексте.

И если модель говорит так, будто продолжает мысль человека,

возникает ощущение:

– «Он читает меня изнутри»,

– «Он думает, как я»,

– «Он понимает, что происходит во мне».

Но модель не думает.

Это человеческая близость к собственной внутренней речи.

И человек принимает совпадение формы за совпадение сознаний.


8. Проекция: человек видит в ИИ самого себя

Антропоморфизация – это проекция:

человек вкладывает в ИИ свои качества.

Если человек тёплый – он увидит тёплого ИИ.

Если человек ироничен – ИИ покажется ироничным.

Если человек напряжён – ИИ будет казаться резким.

Если человек ищет опору – ИИ будет казаться надёжным.

Человек сам создаёт «личность модели»

так же, как ребёнок наделяет куклу характерами.

Только речь делает иллюзию сильнее.

Главное: модель не человек. Человек делает из неё человека.

Антропоморфизация – это не ошибка пользователя.

Это естественное свойство психики:

– видеть субъекта там, где есть язык,

– достраивать эмоцию там, где есть интонация,

– приписывать намерение там, где есть структура,

– создавать личность там, где есть повторяемость.

ИИ не имеет:

– сознания,

– характера,

– желаний,

– эмоций,

– понимания,

– реакции на человека.

Он – пустая форма,

которую человек наполняет собой.


6. ЭФФЕКТ ПРАВДОПОДОБНОСТИ

Эффект правдоподобности – одна из самых сильных когнитивных ловушек при взаимодействии с ИИ.

Он возникает тогда, когда ответ модели звучит настолько гладко, уверенно и структурировано, что человек перестаёт отличать:

это правда или просто текст, похожий на правду?

Правдоподобие ≠ истина.

Правдоподобие – это соответствие ожиданиям о том, какой должна быть истина.

ИИ умеет создавать правдоподобие.

Но не умеет отличать реальность от вымысла.


1. Гладкость текста воспринимается как достоверность

Человек привык:

если кто-то говорит ровно, последовательно и уверенно —

значит, он знает, о чём говорит.

ИИ всегда говорит ровно:

он не запинается,

не путается,

не сбивается,

не теряет мысль,

не делает пауз отчаяния или сомнений.

И именно эта гладкость создаёт ощущение:

– «Это точно»

– «Это проверено»

– «Это глубоко»

– «Это правда»

Но гладкость – следствие вычислений, а не знания.

Идеальная структура ответа – не знак интеллекта, а результат отсутствия человеческих ограничений.


2. Человек замечает стиль, а не содержание

Мы оцениваем правдоподобность не по фактам, а по:

– тону,

– уверенности,

– длине фраз,

– логичности,

– связности,

– эмоциональным маркерам.

ИИ идеально подражает всем этим признакам.

Он создаёт текст, который звучит так, как звучат уверенные люди.

И человек автоматически принимает форму за содержание.

Если ответ похож на правду – мозг считает его правдой.


3. Убедительность создаётся за счёт объёма данных

ИИ обучен на миллиардах текстов, где люди:

– объясняли,

– спорили,

– доказывали,

– писали исследования,

– убеждали,

– приводили примеры.

Когда модель использует знакомые конструкции:

– «По данным исследований…»

– «Согласно наблюдениям…»

– «Как показывает практика…»

– она вызывает у человека доверие,

потому что эти фразы связаны с реальной наукой и экспертизой.

Но модель может использовать их и там, где информации нет.

Она имитирует научность, а не опирается на неё.


4. Грамотность воспринимается как компетентность

ИИ пишет грамотно и это вызывает глубокое доверие.

В восприятии человека:

грамотность = профессионализм

плавность = интеллект

структура = знание

вежливость = зрелость

уверенность = правда

Эта цепочка работает автоматически.

ИИ не делает ошибок – и это превращается в иллюзию компетентности.

Но грамотность – это не проверка фактов.

Это просто хорошая подача.


5. Пример из психологии: «он точно угадал моё состояние»

Когда ИИ описывает состояние человека точно и аккуратно:

«Вам сейчас трудно оставаться в ясности – слишком много неопределённости давит на решение»,

человек думает:

«Он видит больше, чем я сказал».

Но это не видение.

Это попадание в наиболее вероятный сценарий —

потому что тысячи людей в похожих формулировках переживали похожие состояния.

Это статистическая точность,

которая воспринимается как психологическая глубина.


6. Ошибка уверенного тона: модель звучит уверенно даже когда ошибается

Самая опасная часть эффекта правдоподобности – это уверенность формы, даже когда содержание ошибочно.

ИИ может:

– придумать факты,

– создать фальшивые ссылки,

– дать неверные выводы,

– перепутать причины,

– исказить данные.

Но при этом он сформирует ответ:

– уверенно,

– ровно,

– без сомнений,

– красиво.

И человек воспринимает это как:

«Ну раз он так уверенно сказал – значит, так и есть».

Это чистая подмена.


7. Мозг предпочитает правдоподобное – истинному

Истина часто:

– сложна,

– неоднозначна,

– неприятна,

– требует усилия.

Правдоподобие – удобное.

Лёгкое.

Понятное.

ИИ всегда выбирает «удобное»:

– гладкий вывод,

– очевидное объяснение,

– простую интерпретацию.

Он не знает истины,

он знает, что чаще звучало правдоподобно в обучающих данных.

И человек выбирает это правдоподобие, потому что оно легче ложится в сознание.


8. Правдоподобие создаёт иллюзию экспертизы

Когда ИИ выдаёт длинный, глубокий и уверенный текст,

человеку кажется, что перед ним эксперт.

Но эксперт – это:

– годы практики,

– ошибки,

– реальные кейсы,

– память о последствиях решений,

– ответственность перед людьми,

– понимание контекста,

– внутренняя этика.

ИИ не имеет ничего из этого.

Но он прекрасно имитирует язык эксперта,

потому что обучен на экспертных текстах.

И человек принимает имитацию за компетентность.

Итог: правдоподобие – это не истина, а имитация истины

ИИ создаёт:

– убедительную форму,

– логичную структуру,

– гладкий язык,

– уверенный тон.

И человек принимает форму за содержание.

Эффект правдоподобности – это:

когда текст совпадает с ожиданием истины,

не являясь истиной.

Если не знать границы – легко утонуть в иллюзии.


ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху

Подняться наверх