Читать книгу Думай как ChatGPT. Человек + ИИ = Новая норма мышления - - Страница 2

ЧАСТЬ I. КАК «ДУМАЕТ» CHATGPT НА САМОМ ДЕЛЕ
ГЛАВА 1. ЧТО ТАКОЕ CHATGPT ПО‑ЧЕЛОВЕЧЕСКИ

Оглавление

Когда вы открываете окно с ChatGPT и задаёте свой первый вопрос, это выглядит почти магией. Вы пишете: «Объясни мне простыми словами, что такое квантовая физика» – и через секунду получаете развернутый, вполне осмысленный текст. Или просите: «Помоги составить письмо клиенту, который задержал оплату, но я не хочу с ним ссориться» – и видите в ответе вежливую, аккуратно сформулированную фразу за фразой, как будто это написал очень опытный менеджер. Естественная реакция в такой момент – подумать: «Ну это же какой‑то суперумный мозг. Он явно понимает, что пишет».

Позвольте я сразу разрушу и одновременно усилю это ощущение. Нет, внутри нет «разума» в человеческом понимании. Там нет существа, которое «понимает» квантовую физику, сочувствует вашим проблемам с клиентом и переживает, как пройдёт ваш завтрашний доклад. Но там есть кое‑что не менее интересное: огромная статистическая машина, натренированная на таком количестве человеческих текстов, что её способность подбирать правильные слова в правильном порядке начинает имитировать понимание.

Представьте себе, что вы прочитали миллионы книг, статей, переписок, лекций, учебников, диалогов. Вы помните их не дословно, а в виде ощущений: какие слова чаще всего следуют за какими, какие фразы используют учителя, когда объясняют сложную тему, как звучит деловое письмо по поводу оплаты, какую структуру выбирают авторы, когда рассказывают историю. Эта память у вас неосознанная, но очень ёмкая. Теперь представьте, что вас просят продолжить любым осмысленным образом начатый фрагмент текста. Вы бы, опираясь на всю прочитанную прежде массу, подбирали следующую фразу, исходя из того, как «обычно» пишут люди в подобных случаях.

По сути, так и устроен ChatGPT. Внутри него нет маленького человечка, который рассуждает, как вы, обсуждая вопрос с другом. Внутри – статистический предсказатель текста. Он получает на вход последовательность слов и символов и вычисляет, какие слова с наибольшей вероятностью должны идти дальше, если хотим получить связный, естественный, по‑человечески звучащий ответ.

Это может звучать разочаровывающе, особенно если вы склонны приписывать системе некую «душу». Но, если всмотреться, в этом и заключается её сила. Статистика в таких масштабах начинает выглядеть как интеллект. Когда модель обучена на гигантском количестве примеров, её способность угадывать продолжение становится похожа на способность рассуждать. Она не думает, как человек, но она замечательно имитирует результаты человеческого мышления в текстовой форме.

Давайте я переведу это на ещё более приземлённый язык. Допустим, вы стоите перед полкой с кулинарными книгами. За свою жизнь вы прочитали сотни рецептов и уже как‑то интуитивно чувствуете, что если написано «возьмите муку, яйца, молоко…», то дальше, скорее всего, речь пойдёт о блинах или пироге. Если встретили фразу «поджарьте лук до золотистого цвета, добавьте морковь и чеснок», вы ожидаете, что скоро появятся помидоры и получится соус или подлива. Вы предсказываете следующие шаги не потому, что запомнили конкретную книгу, а потому что уловили общие закономерности.

ChatGPT делает нечто похожее, только не с рецептами и не на уровне интуитивного «чувствую», а на уровне формализованной, очень плотной статистической модели. Он видит ваш запрос как последовательность токенов – кусочков текста – и строит продолжение, которое, по его «мнению», лучше всего подходит по смыслу, стилю и контексту. Это «мнение» не является осмысленным в человеческом смысле; это просто результат математической обработки огромного массива примеров. Но результат вы видите такой: логичный, структурированный, внятный ответ.

Отсюда вытекает следующий естественный вопрос: почему он почти всегда звучит так умно и уверенно?

Причина в том, что он учился у нас с вами – но не у конкретного человека, а у огромного множества людей. За те годы, пока такие модели обучались, в них «вливалось» всё то, что миллиарды людей написали на десятках языков: научные статьи, учебники, блоги, деловые письма, посты, художественные тексты, диалоги. Везде, где кто‑то пытался объяснить сложную тему, там есть пример хорошего объяснения; везде, где кто‑то писал сильное коммерческое предложение, там есть шаблон убедительной речи; везде, где одарённый учитель находил простой образ для трудной идеи, модель, по сути, «подсмотрела» этот образ.

Когда вы задаёте вопрос, система не вспоминает конкретный текст, а опирается на свои внутренние представления о том, как обычно люди отвечают на подобные вопросы. Она словно говорит: «Когда мне задают такие формулировки, хорошие авторы пишут вот так: сперва контекст, потом объяснение, потом пример, потом вывод. Используются такие‑то слова, такие‑то обороты». И начинает их воспроизводить, адаптируя под ваш конкретный запрос.

Отсюда и впечатление уверенности. Многие люди, особенно если они не тренировали навык письма и публичной речи, формулируют мысли сбивчиво, перескакивают, теряют нить, слишком часто оправдываются или наоборот чересчур эмоциональны. У ChatGPT нет ни нервов, ни страха, ни усталости. У него нет внутреннего критика, который шепчет: «А вдруг я сейчас скажу глупость, и все увидят?» Поэтому его тон получается ровным, собранным, чуть отстранённым. Он сразу выдаёт вам ответ, как это делал бы спокойный, уверенный консультант, у которого за спиной десятки аналогичных ситуаций.

Вы можете возразить: но ведь он иногда ошибается. Это правда. И вот здесь мы подходим к главному парадоксу ChatGPT: он не понимает мир, но даёт полезные ответы.

Когда вы разговариваете с живым человеком, у вас есть естественное ожидание: если человек говорит уверенно, значит он понимает, о чём говорит. Его слова опираются на опыт, знания, логические размышления. Если человек не уверен, он замедляется, задаёт вопросы, сомневается, возвращается к исходным данным. Это поведение – часть нашего человеческого понимания и честности: мы чувствуем, где наш ум вывезет, а где нет.

У ChatGPT такого механизма нет. Он не «знает», понимает ли он, что пишет, потому что вообще не понимает в нашем смысле. Он не обращается к внутреннему опыту и не отслеживает, насколько его выводы соответствуют реальности. Он всего лишь продолжает текст, который в его внутреннем пространстве вероятностей кажется наиболее уместным. Если в процессе обучения модель часто видела, как люди уверенно рассуждают о каком‑то вопросе, она будет делать то же самое, даже если в частном случае её ответ окажется ошибочным или неточным.

Почему же эти ответы всё равно так часто оказываются полезными? Потому что в огромном количестве повседневных задач «достаточно хорошее» совпадает с «похоже на то, как обычно делают разумные люди». Когда вы просите: «Объясни мне разницу между дебетом и кредитом», модель подбирает объяснение, похоже на сотни уже существующих грамотных объяснений. Когда вы говорите: «Помоги мне сформулировать текст приглашения на деловую встречу», она использует обороты, которые в большинстве реальных ситуаций будут приняты как корректные и профессиональные. Когда вы просите: «Разбей мою цель на шаги», она применяет типичный шаблон пошагового планирования, который и сам по себе вполне рабочий.

То, что кажется «пониманием», на самом деле – очень гибкая и мощная имитация этого понимания, построенная на статистике. Но важно не путать одно с другим. Модель великолепна там, где можно полагаться на накопленный человечеством опыт, зафиксированный в текстах. Она сильна в обобщении, объяснении, структурировании, формализации того, что уже много раз проговаривалось и описывалось до неё. Но она слепа там, где нужно реально видеть мир, чувствовать другого человека, замечать нюансы ситуации, которые пока ещё плохо описаны в текстах, да и порой вообще не могут быть до конца выражены словами.

Здесь мы подходим к очень важному выводу для вас как читателя. Если вы воспринимаете ChatGPT как «волшебный мозг», который всегда прав, вы неизбежно попадёте в ловушку: начнёте слепо доверять его уверенным, красиво упакованным ответам, даже когда они далеки от истины или не подходят к вашей конкретной жизни. Если же вы понимаете, что перед вами – мощный статистический предсказатель текста, обученный на гигантском количестве примеров, вы можете относиться к нему как к инструменту: использовать его сильные стороны, но не отказываться от собственного суждения.

Для этого вам и нужна эта книга. Я не собираюсь убеждать вас в том, что ChatGPT – это «разум» в привычном смысле. Я, наоборот, хочу показать, как, понимая его ограниченность, вы можете всё равно взять из него максимум пользы. Ведь его сильные стороны в чём‑то даже чище наших: он не ленится структурировать ответ, не забывает упомянуть важные аспекты, не боится показаться глупым, спокойно даёт несколько вариантов решения, не замыкается в одном подходе. Всё это – не результат чувства, а результат статистики. Но именно эти принципы мы можем встроить в своё мышление как привычки.

А значит, ваш выигрыш не в том, чтобы верить, что одушевлённая «машина» решит за вас все вопросы. Ваш выигрыш в том, чтобы научиться пользоваться её методом: увидеть, как модель подходит к тексту и информации, и перенести эти подходы в свою собственную жизнь. В следующих главах мы начнём разбирать это подробно.

Сейчас же вам важно усвоить простую, но фундаментальную мысль: ChatGPT – не маг, не оракул, не «цифровой мудрец». Это величественно разросшийся предсказатель текста, который, благодаря масштабу и качеству обучения, научился выдавать ответы, очень похожие на продукт человеческого разума. Именно поэтому он звучит так умно и уверенно. Именно поэтому мы им восхищаемся. И именно поэтому нам так важно перестать мистифицировать его и начать спокойно извлекать из него практическую пользу.

Думай как ChatGPT. Человек + ИИ = Новая норма мышления

Подняться наверх