Читать книгу Думай как ChatGPT. Человек + ИИ = Новая норма мышления - - Страница 4
ГЛАВА 3. СЛАБЫЕ СТОРОНЫ CHATGPT (И ПОЧЕМУ ЭТО ПЛЮС ДЛЯ ЧЕЛОВЕКА)
ОглавлениеКогда вы видите аккуратный, связный, уверенный ответ на свой вопрос, очень легко приписать системе больше, чем в ней есть. Кажется, что раз она так логично пишет о сложных вещах, то где‑то внутри у неё должен быть некий «мозг», который понимает всё это не хуже человека, а то и лучше. В прошлых главах мы разобрали, что даёт модели её силу: она великолепно работает с текстами, структурами, шаблонами. Но чтобы пользоваться этим инструментом без иллюзий и разочарований, нам нужно честно поговорить о том, чего у ChatGPT нет.
Я сознательно делаю на этом акцент, потому что вас, как читателя этой книги, интересует не только вопрос «что можно взять у такой системы», но и не менее важный: «что категорически нельзя ей отдавать и у неё заимствовать». Парадокс в том, что слабости модели – это зона вашего человеческого преимущества. И, понимая их, вы начинаете видеть, где именно вы сильнее и незаменимее.
Начну с самого фундаментального: у ChatGPT нет понимания контекста жизни, эмоций и ценностей. Я говорю сейчас не об отдельных словах и фразах, которыми люди описывают свои чувства, а о том глубоком, телесно‑эмоциональном, многослойном опыте, из которого вырастает человеческое «понимаю».
Когда вы говорите: «Мне страшно», за этим может стоять очень много всего – память о детском опыте, отношения с родителями, неудачи в прошлом, культурный фон, ваши личные убеждения. Иногда вы сами не можете до конца объяснить, чего именно вы боитесь. Вы просто чувствуете сжатие в груди, ком в горле, нервное напряжение. Слова – лишь верхушка айсберга.
Когда вы пишете ChatGPT: «Мне страшно, потому что я собираюсь уволиться с работы», – модель видит последовательность символов, из которых складывается фраза о страхе, увольнении, работе. Она не чувствует вашего телесного отклика, не знает, что это за офис, кто там работает, какие у вас отношения с начальником, нет ли у вас ипотечного кредита, как к вашему решению отнесётся семья. Её «понимание» страха сводится к статистике: в каких контекстах люди обычно употребляют слово «страшно», какие ещё слова и фразы часто идут рядом, какие советы и фразы поддержки принято высказывать в таких случаях.
Таким образом, когда она отвечает: «Страх перед увольнением – это нормально, вы выходите из зоны комфорта», – это может звучать правильно и даже полезно. Но это не её эмпатия. Это отражение бесчисленных текстов, в которых люди делились подобными переживаниями. У модели нет своих ценностей, она не выбрала в жизни ни одного решения, за которое пришлось бы отвечать. Она не знает, каково это – жить с последствиями своего выбора.
Из этого вытекает важный практический вывод. В тех вопросах, где вы на самом деле спрашиваете не «как сформулировать письмо», а «как мне жить», модель может дать вам только усреднённый, текстовый, безопасный ответ. Не потому, что «она злая» или «ей всё равно», а потому, что у неё нет доступа к тому уровню реальности, на котором живёте вы. У неё нет ни личной истории, ни интуиции, ни того очень тонкого чувства: «Вот это будет правильно именно для меня».
Второй важный изъян ChatGPT, о котором нужно говорить честно, – это так называемые галлюцинации. Термин некрасивый, но довольно точно отражает суть: модель способна выдавать вполне уверенные, детализированные ответы, которые при проверке оказываются просто выдумкой.
Представим, вы просите: «Посоветуй книги такого‑то автора» или «Сделай краткий обзор научных исследований на такую‑то тему». В ответ вы видите названия работ, имена, ссылки, цитаты. Всё выглядит очень солидно: правильный язык, логичное изложение, аккуратная структура. Но если вы начинаете проверять отдельные названия в поиске, вдруг выясняется, что половины этих книг не существует, фамилии перепутаны, даты придуманы. Откуда это берётся?
Если говорить по‑человечески, модель буквально придумывает детали в тех местах, где ей «нечем заполнить пробел», а структура ответа требует продолжения. Она не ходит в интернет, не открывает базы данных. Она, как и раньше, просто предсказывает следующий кусочек текста, исходя из вероятностей. Если в похожих ответах из обучающего корпуса встречались «ссылки на исследования», «перечни книг», «цитаты», то она и вам их сгенерирует – даже если конкретно таких исследований или книг нет. Её внутренний критерий – не «истинно/ложно», а «похоже на правдоподобный текст/не похоже».