Читать книгу Агенты среди нас. Как нанять нейросеть на работу и не уволиться самому - - Страница 11

Часть I. Рекрутинг: Кого мы нанимаем?
Глава 2. Почему они должны говорить друг с другом
Проблема «одного большого промпта»: почему универсальные модели глупеют от сложных задач

Оглавление

В начале «золотой лихорадки» генеративного ИИ (2023—2024 годы) в профессиональном сообществе доминировал подход, который мы сейчас, в эпоху агентных систем, называем «Монолитным Промптингом» (Monolithic Prompting). Мы все были его заложниками. И вы, скорее всего, тоже.

Вспомните свой самый сложный запрос к ChatGPT. Вероятно, он выглядел как бесконечное полотно текста, где смешались люди, кони, стилистические требования, факты и запреты.

«Ты – профессиональный маркетолог и юрист. Прочитай этот договор, найди риски, перепиши пункт 5, чтобы он был выгоднее для нас, но не злил контрагента, потом напиши вежливое сопроводительное письмо на английском языке в стиле деловой переписки Оксфорда, а в конце составь таблицу с ключевыми датами».

И что происходило дальше? Модель начинала бодро. Первый пункт выполнялся блестяще. Второй – неплохо. На третьем начинались странности: стиль письма становился слишком сухим, а в таблице появлялись галлюцинированные даты. К концу ответа модель словно «уставала», теряла нить рассуждений и игнорировала половину ваших инструкций.

Мы привыкли списывать это на «тупость» конкретной версии нейросети. Мы ждали GPT-5, надеясь, что она будет умнее. Но проблема не в мощности модели. Проблема в фундаментальной архитектуре современных нейросетей, которая делает «Один Большой Промпт» тупиковой ветвью эволюции. Чтобы понять, почему агенты неизбежны, нам нужно заглянуть под капот технологии Трансформеров и разобрать феномен, который ученые называют «Размытием Внимания» (Attention Dilution).

Механика внимания: Эффект фонарика в темной комнате

В основе всех современных LLM (Large Language Models) лежит механизм Self-Attention (Само-внимание). Это математический алгоритм, который позволяет модели при генерации каждого следующего слова «оглядываться» на весь предыдущий текст и решать, какие слова важны для текущего момента, а какие – нет.

Представьте, что контекстное окно модели (вся информация, которую вы ей дали) – это огромная темная комната, заставленная мебелью (фактами, инструкциями, условиями). «Внимание» модели – это луч карманного фонарика.

– Когда задача узкая и конкретная («Назови столицу Франции»), луч фонарика сфокусирован в узкую, яркую точку. Модель видит ответ кристально ясно. Вероятность ошибки стремится к нулю.

– Когда вы загружаете в модель «Один Большой Промпт» на 10 страниц с десятком разнородных задач, вы заставляете этот фонарик осветить сразу весь футбольный стадион.

– Что происходит с лучом? Он рассеивается. Свет становится тусклым. Модель вроде бы «видит» всё, но не видит ничего конкретно. Детали в тенях теряются. Инструкция «не использовать пассивный залог», написанная в середине промпта, просто тонет в информационном шуме.

Этот феномен научно подтвержден. В 2023 году исследователи из Стэнфорда (Nelson F. Liu et al.) опубликовали знаковую работу «Lost in the Middle» («Потерянные в середине»). Они доказали существование так называемой U-образной кривой производительности (U-shaped performance curve).

Суть открытия пугающая для бизнеса: LLM отлично запоминают то, что написано в самом начале промпта (Primacy Effect) и в самом конце (Recency Effect). Но информация, находящаяся в середине длинного контекста, проваливается в «слепую зону».

Если в вашем «Мега-Промпте» самое важное условие (например, «максимальный бюджет 5000$») находилось в середине текста, вероятность того, что модель его проигнорирует, достигает 60—70%.

Это не баг, это физика внимания. «Один Большой Промпт» физически не может обеспечить одинаково высокое качество выполнения для всех подзадач одновременно.

Три всадника промпт-апокалипсиса

Помимо технического ограничения внимания, монолитный подход порождает три критические проблемы, которые делают его непригодным для серьезного бизнеса.

1. Шизофрения ролей (Role Confusion)

В примере выше мы просили модель быть одновременно «агрессивным маркетологом» и «осторожным юристом». Для нейросети это взаимоисключающие векторы настройки вероятностей.

– Маркетолог требует высокой «Температуры» (Temperature> 0.7) – параметра, отвечающего за креативность, случайность и неожиданные обороты.

– Юрист требует нулевой «Температуры» (Temperature = 0) – параметра, обеспечивающего максимальную точность, детерминизм и сухость формулировок.

Когда вы запихиваете эти две роли в один промпт, модель вынуждена искать «среднее арифметическое». В результате вы получаете шизофренический продукт: договор с неуместными шутками и рекламный пост, написанный канцеляритом.

Невозможно быть одновременно клоуном и судьей в рамках одной сессии генерации. Универсальность убивает качество.

2. Эффект домино при ошибках (Error Propagation)

В «Одном Большом Промпте» все действия связаны в одну неразрывную цепь. Анализ, планирование, написание кода и его проверка происходят в одном потоке вывода.

Если модель совершает ошибку в самом начале (например, неправильно поняла входные данные), эта ошибка лавиной катится через весь ответ.

Модель не может остановиться, сказать «Ой, я ошиблась в первом абзаце» и переписать его. Она работает авторегрессионно – только вперед. Она будет героически строить логические замки на фундаменте из галлюцинаций.

В конце вы получаете огромный, красивый, связный текст, который полностью неверен, потому что первая предпосылка была ошибочной. В монолитной системе нет «точек сохранения» и «предохранителей».

3. Проблема «Черного ящика» (Debugging Nightmare)

Это боль всех, кто пытался внедрять ИИ в продакшн.

Вы написали сложный промпт. Клиент жалуется, что бот иногда грубит.

Где ошибка?

– Может, вы неудачно описали Tone of Voice?

– Может, модель неправильно интерпретировала вопрос клиента?

– Может, сработал защитный фильтр OpenAI?

– В «Большом Промпте» вы не можете изолировать проблему. Вы меняете одно слово в инструкции, и ломается всё остальное (эффект бабочки). Промпт-инжиниринг превращается в шаманизм: вы боитесь дышать на промпт, который «вроде бы работает». Это тупик для масштабирования.

Смерть «Швейцарского ножа»

Рынок долго верил в мечту об AGI (General Intelligence) – универсальном разуме, который умеет всё. Но практика 2025 года показывает, что бизнес-задачи лучше решают не универсалы, а узкие специалисты.

«Один Большой Промпт» – это попытка забивать гвозди микроскопом. Да, микроскоп тяжелый, им можно забить гвоздь. Но гвоздь будет кривой, а микроскоп сломается.

Мы переходим от парадигмы «Супер-Модель, которая делает всё» к парадигме «Команда средних моделей, каждая из которых делает одно дело идеально».

Вместо того чтобы растягивать внимание модели на километр, мы нарезаем задачу на 10 маленьких кусочков, где для каждого кусочка внимание сфокусировано на 100%.

Именно неспособность одной модели удерживать в голове сложный контекст и привела к рождению мультиагентных систем. Мы перестали бороться с природой нейросетей и начали использовать её сильные стороны.

Мы поняли: чтобы написать книгу, не нужен один гений. Нужен редактор, писатель, корректор и фактчекер. И они не должны жить в одной голове.

Агенты среди нас. Как нанять нейросеть на работу и не уволиться самому

Подняться наверх