Автор книги: id книги: 2728402Оценка: 0.0Голосов: 0Отзывы, комментарии: 00,01 руб.(0$)Читать книгуКупить и скачать книгуКупить бумажную книгуЭлектронная книгаЖанр: Правообладатель и/или издательство: АвторДата публикации, год издания: 2023Дата добавления в каталог КнигаЛит: Скачать фрагмент в формате fb2fb2.zipВозрастное ограничение: 12+ОглавлениеОтрывок из книги
Реклама. ООО «ЛитРес», ИНН: 7719571260.
Описание книги
Вот краткая аннотация к представленной книге:Эта книга посвящена изучению принципов работы современных чат-ботов на основе нейросетевых моделей искусственного интеллекта. Рассматривается пример одного из наиболее известных чат-ботов – ChatGPT, созданного компанией OpenAI. Анализируется архитектура и механизмы функционирования подобных моделей, этапы их разработки и обучения на больших данных. Освещаются ключевые возможности и ограничения технологии ChatGPT. Отдельное внимание уделяется работе механизма инициализации чат-ботов посредством промптов. Делается вывод о том, что подобные чат-боты представляют собой значительный прогресс в области моделирования естественного языка и машинного интеллекта. Книга будет полезна всем, кто интересуется современными технологиями искусственного интеллекта.
Оглавление
Группа авторов. CHATGPT – Замена Людям?
Глава 1. Как работают чат-боты на основе LLM
Глава 2. История создания ChatGPT
Глава 3. Возможности и ограничения ChatGPT
Глава 4. Анализ исходного промпта
Глава 5. Будущее моделей языка
Заключение
Отрывок из книги
Чат-боты нового поколения, такие как ChatGPT, основаны на больших нейронных сетях, которые называются моделями языка (LLM). Это мощные модели машинного обучения, способные анализировать и генерировать естественный человеческий язык.
В основе LLM лежат искусственные нейронные сети, которые состоят из миллиардов параметров. Обучение таких моделей происходит на огромных массивах текстов – от книг и Википедии до новостей и диалогов в социальных сетях.
.....
Ключевым компонентом в архитектуре моделей языка являются трансформеры (transformers) – специальные нейронные сети для обработки последовательных данных. Они были предложены в 2017 году и стали прорывом в области машинного понимания языка. Трансформер состоит из энкодера и декодера. Энкодер анализирует входную последовательность слов и строит векторное представление их смысла. Декодер на основе этого представления генерирует выходную последовательность.
Обучение трансформера заключается в настройке миллиардов параметров энкодера и декодера на большом объеме текстовых данных. При этом модель учится устанавливать связи между словами, понимать контекст и предсказывать дальнейшее развитие фразы.