Читать книгу Искусственный интеллект - - Страница 5

История ИИ
1970-1980: Повышение интереса к ИИ

Оглавление

В 1968 году Стэнли Кубрик снял фильм «Космическая одиссея 2001 года», в котором компьютер HAL 9000 суммирует в себе всё многообразие этических вопросов, поставленных ИИ: будет ли он представлять собой высокий уровень сложности, благо для человечества, или опасность? Воздействие фильма, естественно, не было научным, но оно способствовало популяризации темы ИИ, так же, как и влияние писателя-фантаст Филип К. Дик, который никогда не переставал задаваться вопросом: испытают ли однажды машины эмоции.

Именно с появлением первых микропроцессоров в конце 1970 года тема ИИ снова «взлетела». Наступил золотой век экспертных систем. Новый путь движения вперед был фактически открыт в 1965 году в Массачусетском технологическом институте с помощью системы DENDRAL (экспертная система, специализирующаяся на молекулярной химии) и в 1972 году в Стэнфордском университете на основе системы MYCIN (система, специализирующаяся на диагностике болезней крови и лекарствах, отпускаемых по рецепту). Эти системы были основаны на «машине вывода», которая была запрограммирована как «логическое зеркало» человеческого рассуждения. Вводя данные, «движок» внутри системы давал ответы высокого уровня экспертности и знаний. В конце 1980-х – начале 1990-х годов повальное увлечение ИИ снова прекратилось.

На практике программирование таких знаний потребовало больших усилий, и при программировании большого числа правил (200, 300 и более) возникал эффект «черного ящика»: было непонятно, как именно рассуждала машина. Таким образом, разработка таких алгоритмов, их сопровождение и доработка, эксплуатация экспертных систем, стали чрезвычайно проблематичными. Кроме того, решаемые ими задачи также решались многими другими менее сложными и менее дорогими способами, что было очень важно с точки зрения практической применимости. Как следствие, в 1990-е годы термин «искусственный интеллект» стал почти «табу», и в университетский язык даже вошли более скромные его вариации, такие как «продвинутые вычисления».

В 1971 г. В. Н. Вапник и А. Я. Червоненкис обосновали сходимость методов обучения, основанных на минимизации эмпирического риска, что дает возможность получить оценку скорости сходимости алгоритмов машинного обучения. В частности, к таким алгоритмам относятся методы построения кусочно-линейных решающих правил, минимизирующих число ошибок на материале обучения. Поскольку одним из формальных средств, реализующих такие кусочно-линейные правила, являются нейронные сети, то эта теория использовалась во всём мире для анализа работы нейронных сетей. Разработанные В. Н. Вапником и А. Я. Червоненкисом методы решения этой задачи получили название методов структурной минимизации риска. В настоящее время они широко применяются в задачах распознавания образов, восстановления регрессионных зависимостей и при решении обратных задач физики, статистики и других научных дисциплин.

В 1974 году А. И. Галушкиным и одновременно и независимо от него Полом Дж. Вербосом был впервые описан метод обратного распространения ошибки (англ. backpropagation), ставшим одним из ключевых инструментов машинного обучения. Это – итеративный градиентный алгоритм, который используется при обновлении весов многослойного перцептрона с целью минимизации ошибки и получения желаемого выхода (результата расчета). Однако существенное развитие этот метод получил лишь в 1986 году благодаря совместным усилиям Дэвида И. Румельхарта, Дж. Е. Хинтона и Рональда Дж. Вильямса, а также независимо и одновременно С.И. Барцевым и В.А. Охониным (Красноярская научная группа).

Искусственный интеллект

Подняться наверх