Читать книгу Человек как текст - Ярослав Вячеславович Богданов - Страница 6

Связь подхода с искусственным интеллектом и машинным обучением

Оглавление

Идея текстуальности сознания почти автоматически выводит нас к искусственному интеллекту. Если принять, что значительная часть человеческого мышления – это переработка символической, в том числе языковой информации, то модель мозга как «вычислителя текста» становится естественной отправной точкой для ИИ. Уже кибернетики и исследователи первых систем искусственного интеллекта в 1950–1960‑е годы вдохновлялись лингвистикой и логикой: создавались правила грамматики, семантики, формальные языки, на которых машина должна была «думать» и общаться (40, 34). В наши дни эту линию радикально продолжили глубокое обучение и большие языковые модели (Large Language Models). Нейросети вроде GPT обучаются на гигантских корпусах человеческих текстов и демонстрируют способность генерировать связные, стилистически убедительные ответы на естественном языке. О масштабе этого скачка можно судить хотя бы по работе команды OpenAI по GPT‑3 (29) и последующему техническому отчёту по GPT‑4 (35): следуя статистике языковых паттернов, модель способна вести диалог, отвечать на вопросы, писать эссе и даже имитировать индивидуальный стиль. Для стороннего наблюдателя это выглядит как «текстовое мышление», хотя внутри, как мы знаем, работают матрицы весов и операции над векторами.

Философская подкладка у этой истории давняя. Ещё в середине XX века, на фоне развития компьютеров, в философии языка обсуждался вопрос: если сознание по сути своей языково, значит ли это, что достаточно реализовать правильную языковую программу, чтобы получить искусственный интеллект (40)? На знаменитую статью Алана Тьюринга о тесте «машина–человек» ответом стала критика Джона Сёрля с его мысленным экспериментом «китайская комната» (37), где он как раз показывает ограниченность чисто символического, текстового подхода: манипулировать знаками по правилам ещё не значит понимать их смысл. Современные дискуссии о больших языковых моделях во многом повторяют этот спор. Одни философы, вроде Дэвида Чалмерса, серьёзно задаются вопросом, можно ли при определённых условиях говорить о зачатках сознания (30), другие же видят в них лишь мощных «статистических попугаев», воспроизводящих формы языка без подлинного понимания (28).

С практической точки зрения человек, понятый как текст, оказывается во многом моделируемым. Если личность описывается через устойчивый стиль письма, характерные обороты, типичные реакции, то чат‑бот может довольно точно продолжать этот стиль, а алгоритмы – предсказывать «следующий шаг» по прошлому тексту действий. Уже сейчас существуют системы, которые по переписке и поведению пользователя строят его психографический профиль, оценивают склонности, политические предпочтения, риски психических расстройств (32,41). Для ИИ человек в таком подходе – цепочка данных, которую можно продолжить «в том же духе».

Есть и обратное движение: искусственный интеллект становится инструментом интерпретации человека. Алгоритмы машинного обучения анализируют огромные корпуса текстов – книги, статьи, соцсети и вычленяют скрытые темы, тон, эмоциональные паттерны. По сути, это новая волна компьютерной герменевтики. То же самое переносится на «чтение» самого человека: программы распознавания эмоций анализируют мимику и микродвижения лица как текст выражений (33), системы анализа речи оценивают темп, паузы, подбор слов, делая выводы о состоянии и личностных чертах (36). С развитием мультимодальных моделей, объединяющих текст, изображение, звук и даже нейросигналы, ИИ учится читать более цельный «текст человека» – от внешности до биографии. Работы по декодированию намерений и образов из активности мозга с использованием современных моделей языка уже показывают, что по сигналам fMRI можно восстанавливать приблизительное содержание услышанного или придуманного текста (39). Формально это всё те же данные, но к ним всё чаще применяются понятия чтения, толкования, сюжета.

Интересно, что метафора работает и в обратную сторону: сами процессы обучения моделей всё чаще описывают гуманитарным языком. Обучение нейросети на данных похоже на сложную интерпретацию корпуса: модель «читает» примеры и выводит из них общие структуры, как внимательный критик выводит темы и мотивы из романа. Исследователи говорят о «объяснимости» (explainability) моделей как о способности рассказать, какой «сюжет» признаков усвоил алгоритм и почему он принимает те или иные решения (31). Создание ИИ в этом смысле становится разновидностью письма: мы задаём архитектуру, подбираем данные, формулируем целевые функции и в итоге получаем текст поведения системы, который ещё нужно уметь читать.

При всём этом важно не перепутать уровни. Нынешние ИИ, какими бы впечатляющими ни были их текстовые способности, не обладают тем, что мы называем человеческим сознанием и самотождественностью. Они оперируют текстом формально: не переживают боль, вину, любовь, не имеют собственной биографии и проекта жизни. Об этом постоянно напоминают как инженеры, так и философы, подчёркивая принципиальную разницу между симуляцией и переживанием (28, 38). Связка «человек как текст» и ИИ остаётся предметом оживлённых споров: достаточно ли когда‑нибудь будет научиться оперировать всеми текстами о человеке, чтобы «стать человеком», или для этого нужно нечто принципиально вне‑текстовое – тело, уязвимость, опыт смерти и любви? Ответа у нас пока нет, но сами эти вопросы показывают, насколько глубоко цифровая эпоха втянула философию текста в разговор о будущем разума.

Человек как текст

Подняться наверх