Читать книгу Искусственный интеллект - Р. В. Душкин - Страница 5
Глава 1
История развития
ОглавлениеПохоже, что природа разума и сознания взволновала человека прямо сразу, как только он смог осознать свою личность и процесс мышления. Научных свидетельств этому нет, однако можно предположить, что все эти отсылки к «душе», «искре божьей», «духу» и другим подобным штукам имеют в своей основе попытки найти то самое сокровенное, чем человек отличается от «неразумных животных». Конечно же, это относится к разуму, относительно которого до сих пор невозможно сказать как он работает, где скрыт, чем обусловлен. Поскольку подступиться к научному решению этого вопроса до возникновения естественно-научного мировоззрения было невозможно, любопытным людям приходилось плодить сущности.
Вместе с тем развитие научного метода и философии науки происходило в рамках европейской цивилизации, поэтому дальнейшее изложение будет проводиться с европоцентристской точки зрения. Такая позиция не должна отпугивать читателя, поскольку современные достижения науки своей основой лежат именно в европейской колыбели, имея лишь небольшие вкрапления знаний иных цивилизаций. Несмотря на то что такие древние цивилизации, как Индия, Китай и арабский мир, принесли много интересных находок и идей, все они были переосмыслены в европейской традиции, после чего влились в единый поток научного знания.
Поскольку и европейская цивилизация, и современная наука имеют своим истоком древнегреческую философию, имеет смысл обратиться к ней. Особый интерес представляет классический период древнегреческой философии, одним из ярчайших представителей которого является Аристотель. Именно в его трудах складывается научная система мира и познания объективной реальности. Не зря вся современная наука базируется на той самой формальной логике, которую разработал и детально описал Аристотель.
Интересно то, что, согласно Аристотелю, душа человека вмещает в себя три части – растительную, животную и разумную. Первая часть души отвечает за такие функции, как питание и размножение. Вторая часть, животная, – ощущение и желание. Наконец, разумная часть души имеется только у человека, и именно в ней находится разум. Это понимание очень похоже на триединую модель мозга, предложенную в 60-х годах XX века американским нейрофизиологом Полем МакЛином. В этой модели мозг разделён на три взаимосвязанные и тесно взаимодействующие части – так называемый «мозг рептилии», лимбическую систему и неокортекс. Собственно, мозг рептилии – это самая древняя часть головного мозга, которая имеется у рептилий и птиц и отвечает за базовые функции, связанные с инстинктивным поведением различного плана: нападательным, защитным, территориальным и ритуальным. Лимбическая система отвечает за эмоциональную составляющую жизнедеятельности животного, а также за отдельные виды памяти. Наконец, неокортекс свойствен только высшим животным и отвечает за такие функции, как восприятие и самовосприятие, обучение и память, принятие решений и абстрактное мышление. Предполагается, что именно в неокортексе располагается сознание человека.
Другими словами, только лишь по внешним наблюдениям и при помощи спекулятивных размышлений Аристотелю удалось предвосхитить одну из наиболее интересных моделей мозга, принятых уже в наше время. Впрочем, это действительно можно сделать, наблюдая и сопоставляя поведение различных живых организмов. Из-за того что у древних мыслителей всё-таки не было методов изучения человеческого мозга во всех его аспектах и функциональности, поискам природы разума посвящалось незначительное количество усилий. А в темные времена, наступившие в Европе, этот вопрос был совсем отставлен. Потихоньку изучение человеческого интеллекта и его сущности начало выходить на повестку дня только во времена эпохи Возрождения. Но и тогда, несмотря на становление философии гуманизма, философам и мыслителям было сложно подступиться к этой теме.
Прорывом стала книга Рене Декарта «Рассуждения о методе, чтобы хорошо направлять свой разум и отыскивать истину в науках», которую он опубликовал в 1637 году. Несмотря на то что в то ужасное время гонения на свободных разумом учёных было делом обыденным, Декарт отважился на публикацию этой поистине прорывной работы (хотя если говорить откровенно, на современном языке эту работу лучше всего назвать «подрывной»). Она стала знаковой и, по мнению многих историков науки и философии, ознаменовала собой переход к современному научному познанию и к философии Нового времени. Фактически книга «Рассуждения о методе…» стала базисом всей современной эпистемологии.
Декарт провозгласил механистический подход к пониманию природы и объективной реальности, т. е. рассмотрение объектов в окружающем мире в качестве неких механизмов, подчиняющихся физическим законам. Это позволило отвергнуть так называемый витализм, когда движущей силой живой материи объявлялась некоторая сверхъестественная сущность, не подчиняющаяся законам физики, химии, биологии. Собственно с этого момента учёные смогли переключить перспективу и начать рассматривать разум и интеллект человека в той же парадигме.
Однако дальше дело не пошло, поскольку, кроме научного метода, у учёных до второй половины XIX века просто не было достаточной инструментальной базы как с точки зрения математических формализмов для исследования феноменологии мышления, так и с точки зрения физических и химических инструментов для исследования материи мозга.
«Взрывное» развитие математики и вслед за ней прикладных наук начиная со второй половины XIX века дало стимул к развитию и различным направлениям в области изучения мышления и интеллекта. Но здесь уже сложно говорить о какой-то последовательной работе над этой темой, так как сам по себе вопрос изучения человеческого разума является междисциплинарным и про историю развития наук об искусственном интеллекте можно говорить исключительно в ключе постепенного сбора информации и разработки методов в совершенно различных областях знания, которые затем объединялись и в конечном итоге привели к выделению искусственного интеллекта в отдельное научное направление. Другими словами, искусственный интеллект, как дерево, базируется на мощной корневой системе, в которую отдельными корешками входят различные науки от философии, чистой математики и теории вычислений до нейрофизиологии и психологии.
Так что можно выделить следующие магистральные направления научной мысли, которые питают искусственный интеллект (не включая отдельные более узкие специализации):
• философия сознания;
• формальная логика;
• теория вычислений;
• теория информации;
• кибернетика;
• вычислительная техника;
• нейрофизиология;
• психология;
• социология.
Итак, исследования в рамках философии сознания начал Рене Декарт, после которого к этой теме приобщались многочисленные философы, среди которых стоит отметить Джона Локка и Дэвида Юма. Много усилий к изучению природы сознания прилагали философы немецкой школы, в частности Артур Шопенгауэр и Георг Гегель. К XX веку философия сознания выделилась в отдельное направление в рамках аналитической философии, которое является чуть ли не единственной прикладной философской дисциплиной, имеющей большое значение для многих направлений научной мысли, в том числе и для искусственного интеллекта. Философия сознания пытается ответить на вопросы о природе сознания и его соотношения с объективной реальностью, что связано с моралью, свободой воли и этическими вопросами, которые, в свою очередь, сразу же возникают при более глубоком изучении проблем искусственного интеллекта и развития его взаимоотношений с интеллектом естественным.
Как уже было упомянуто, основы формальной логики заложил ещё в античные времена Аристотель, однако потом до начала XX века эта методология использовалась учёными без какого-либо развития. Математики пытались как-то формализовать научный метод, и даже было произведено несколько интересных попыток. Немецкие математики и логики Георг Кантор и Готлоб Фреге фактически стали отцами наивной теории множеств и теории предикатов первого порядка соответственно. Эти теории позволяли формализовать очень многое, однако страдали от важного недостатка – противоречивости. И только в 1910–1913 гг. английские математики и философы Бертран Рассел и Альфред Уайтхед опубликовали трёхтомную работу «Принципы математики», где они ввели теорию типов как инструмент для более точной формализации основ математики, в которой невозможно было сформулировать парадокс Рассела о «множестве всех множеств». Именно после этой книги развитие математики пошло семимильными шагами, в результате чего сделали свои открытия Курт Гёдель, Алонзо Чёрч, Алан Тьюринг и многие другие замечательные учёные. Так что в историческом ряду развития формальной логики стоят такие личности, как Аристотель, Г. Кантор, Г. Фреге, Б. Рассел, А. Уайтхед и К. Гёдель.
После того как в 1931 г. австрийский логик Курт Гёдель опубликовал свои работы, в которых было приведено доказательство его знаменитых теорем о неполноте, начались исследования в этом направлении. Многие из них были чисто философскими, однако две примечательные работы легли в основу всей современной вычислительной техники. Первая – лямбда-исчисление Алонзо-Чёрча, описанное в его теперь уже знаменитой статье 1936 г., в которой он показал существование неразрешимых задач. Параллельно ему Алан Тьюринг переформулировал теорему Гёделя и, пытаясь решить «проблему разрешения» Давида Гильберта, разработал формализм в виде гипотетического устройства, которое впоследствии стало носить название «машины Тьюринга».
Обобщение достижений А. Чёрча и А. Тьюринга привело к формулированию тезиса Чёрча-Тьюринга, который, являясь эвристическим утверждением, гласит, что для любой алгоритмически вычислимой функции существует вычисляющая её значения машина Тьюринга. Этот тезис постулирует эквивалентность между интуитивным понятием алгоритмической вычислимости и строго формализованными понятиями частично рекурсивной функции (по Чёрчу), или функции, вычислимой на машине Тьюринга (по Тьюрингу). Тезис невозможно строго доказать или опровергнуть ввиду того, что интуитивное понятие алгоритмической вычислимости строго не определено. Однако этот тезис в совокупности с теорией вычислений сегодня лежит в основе алгоритмического решения задач и, как следствие, имеет непосредственное применение в рамках искусственного интеллекта.
Вместе с тем в 1948 году американский математик Клод Шеннон публикует статью «Математическая теория связи», которая сегодня считается вехой в рождении теории информации. Несмотря на то что до К. Шеннона в области проблем передачи информации работали такие пионеры, как Гарри Найквист и Ральф Хартли, именно Клоду Шеннону удалось математически точно сформулировать основные положения новой науки, определить её базис и доказать основную теорему, позже названную его именем. Эта теорема определяет предел максимального сжатия данных и числовое значение информационной энтропии. В связи с дальнейшим развитием сетей передачи данных теория информации и все её приложения стали развиваться семимильными шагами, что привело к появлению многочисленных способов помехоустойчивого кодирования информации для каналов с шумом. Всё это имеет самое непосредственное значение для развития интеллектуальных систем, поскольку вопросы передачи информации в них стоят на одном из первых мест.
Конечно, одной из центральных наук, стоящих в основе разработки технологий искусственного интеллекта, является кибернетика как базовая методология исследования сложных систем, взаимодействующих друг с другом и со средой. Кибернетика сама по себе является междисциплинарной областью исследования, базирующейся на многих отраслях науки, в том числе и уже перечисленных здесь ранее. Однако именно разработанный в её рамках научный аппарат в полной мере позволяет целенаправленно заниматься поиском и проектированием сложных адаптивных и самообучающихся систем, к которым, вне всяких сомнений, относятся системы искусственного интеллекта. Кибернетику как науку разрабатывали такие знаменитые учёные, как Уильям Росс Эшби, Карл Людвиг фон Берталанфи, Джон фон Нейман, Стаффорд Бир, а также многочисленная когорта русских учёных, среди которых обязательно надо упомянуть Ивана Алексеевича Вышеградского (основоположника теории автоматического регулирования), Алексея Андреевича Ляпунова, Виктора Михайловича Глушкова и популяризатора науки об искусственном интеллекте Льва Тимофеевича Кузина.
Все теоретические изыскания в области теории вычислений, теории информации, кибернетики и других наук в конечном итоге приводят к развитию вычислительной техники как прикладной дисциплины, рассматривающей вопросы создания и программирования универсальных вычислительных машин. Попытки создать механическую машину для вычислений предпринимались со времён, наверное, Блёза Паскаля, и первым в этом преуспел наш соотечественник Семён Николаевич Корсаков, который в 1830-х годах создавал первые «интеллектуальные машины» на перфокартах. Хотя в те же самые годы английский математик Чарльз Бэббидж разрабатывал проект универсальной цифровой вычислительной машины, до реализации дело у него не дошло. Несмотря на всё это, основы современной вычислительной техники были заложены Джоном фон Нейманом, который разработал принципы построения архитектуры универсальных вычислительных машин. Впрочем, первый компьютер в современном понимании сделал немецкий инженер Конрад Цузе, он же разработал и первый язык программирования высокого уровня, однако из-за военно-политических особенностей мира в те времена работы Цузе оставались малоизвестными. После Второй мировой войны работы над созданием универсальных компьютеров велись во всё ускоряющемся ритме, который выдерживается до сих пор (так называемый «закон Мура»).
Однако по мере продвижения в деле создания всё более мощных вычислительных систем становилось ясно, что разработать интеллект in silico так просто не получится, и исследователей в этом отношении ждало такое же разочарование, как создателей различных механических кукол (автоматонов), которым казалось, что ещё чуть-чуть – и их куклы обретут разум. Как не получилось с механикой, так же не получилось и с электроникой. Это способствовало вовлечению в исследования нейрофизиологов и других специалистов в части анатомии, физиологии и других аспектов функционирования нервной системы и других регуляторных систем организмов человека и животных.
И вот в 1943 г. американские нейрофизиолог Уоррен Мак-Каллок и математик Уолтер Питтс публикуют статью, которая открыла миру новую вычислительную модель, основанную на понятии искусственного нейрона. Да, эта модель была довольно упрощённой и не принимала во внимание большое количество свойств органических нейронов, однако она позволяла производить вычисления. Эта статья фактически открыла широчайшее направление исследований, которое сегодня превалирует в области искусственного интеллекта – искусственные нейронные сети. Вслед за У. МакКалоком и У. Питтсом следует отметить таких учёных, как канадский физиолог Дональд Хебб, который описал принципы обучения искусственного нейрона (он предложил первый работающий алгоритм обучения искусственных нейронных сетей), а также американский нейрофизиолог Фрэнк Розенблатт, который разработал на искусственных нейронах устройство, моделирующее процесс восприятия, – перцептрон.
Но всё, как обычно, оказалось не таким простым, как казалось. Несмотря на то что исследователям удалось смоделировать один нейрон и составить из таких моделей нейронную сеть, сознания в ней так и не зародилось. С одной стороны, это было связано с тем, что на тех вычислительных мощностях, которые были доступны учёным в середине XX века, можно было смоделировать нейронную сеть, состоящую из пары сотен нейронов и нескольких слоёв. Такой объём совсем не соответствует десяткам миллиардов нейронов в головном мозге человека с сотнями тысяч связей для каждого нейрона. С другой стороны, становилось понятно, что «карта не является местностью», так что ждать самозарождения сознания в нейронной сети, даже если она будет очень сложной, слишком странно. Поэтому исследователи обратились к такой науке, как психология.
Одним из первых учёных, кто обратил внимание на этот аспект искусственного интеллекта и его отношения к человеческому разуму, был русский учёный-медик и кибернетик Николай Михайлович Амосов. В ряду его обширной библиографии есть такие знаковые работы, как «Искусственный разум», «Автоматы и разумное поведение» и «Алгоритмы разума». Несмотря на глубокую степень проработки ряда важнейших вопросов, в этих работах всё так же остаётся нераскрытым вопрос о природе сознания. И получается довольно парадоксальная ситуация. Есть практически полное понимание того, как работает нейрон на уровне клетки и субклеточных структур вплоть до биохимических реакций и метаболических путей преобразования веществ, что фактически и эмулирует вычислительные процессы в рамках одной клетки. Также есть понимание, но уже не такое целостное, того, как работают нейронные сети. А ещё есть понимание психологии человека, его поведения и высших когнитивных и интеллектуальных функций. Это понимание ещё менее глубокое, но есть множество операционных гипотез, которые позволяют описывать, объяснять и предсказывать. Но при этом нет никакого понимания того, что находится посередине. Каким образом биохимические реакции нейрона и электрохимические процессы в нейронных сетях приводят к возникновению сознания, интеллекта и разума? Ответа на этот вопрос до сих пор нет. И в итоге получается, что психология – это попытки «дизассемблировать» высшую психологическую деятельность центральной нервной системы человека, но они отвязаны от базовых химических и физических процессов.
Наконец, учёные задумались и о таком важном аспекте интеллектуальной деятельности, как «коллективный интеллект». Само человеческое общество в целом часто показывает более высокий уровень интеллектуальной деятельности, чем каждый его отдельный представитель. Ведь многие сложные научные концепции и технические объекты могут быть изобретены и разработаны исключительно в рамках объединения усилий разноплановых специалистов. Однако не только человеческое общество показывает подобный паттерн поведения. Он виден и в жизни, например, общественных насекомых, когда каждая отдельная особь, вообще не имеющая и тени разума, делает вклад в поведение своего «суперорганизма», который кажется вполне интеллектуальным. Муравьи и пчёлы – это вершина эволюции насекомых на Земле. Эти наблюдения натолкнули исследователей в области искусственного интеллекта на идеи о «роевой модели интеллекта» в рамках так называемых многоагентных систем. Это – одно из самых быстро развивающихся сегодня направлений науки и техники. Здесь сложно назвать какую-либо ключевую личность, поскольку тема возникла совсем недавно. Но эта тема очень горячая и ещё долго будет оставаться на острие научного поиска.
* * *
Итак, мы рассмотрели большую часть научных направлений, которые лежат в основе искусственного интеллекта. Это, можно сказать, его базис и научные и технологические предтечи, предпосылки. Когда же родилось само направление исследований, которое назвали «искусственный интеллект»? Для ответа на этот вопрос необходимо обратиться к работам философов и практиков искусственного интеллекта Марвина Мински и Джона Маккарти. Второй так вообще является автором самого термина «искусственный интеллект» (а кроме того, он разработал язык программирования LISPи является одним из основоположников функционального программирования). Эти учёные основали в 1959 г. Лабораторию информатики и искусственного интеллекта в рамках Массачусетского технологического института, и это была первая научная лаборатория, которая занималась данной проблемой.
Именно Джон Маккарти сформулировал основополагающие принципы искусственного интеллекта, определив то, что потом было названо «чистым подходом», или «нисходящим искусственным интеллектом», и выразилось в гипотезе Ньюэлла-Саймона о том, что осмысленные действия можно выполнять только при наличии в некоторой системе механизма символьных вычислений, а сами такие символьные вычисления являются необходимым условием наличия в этой системе интеллекта. Другими словами, подход Джона Маккарти выражался в том, что системы искусственного интеллекта должны имитировать высокоуровневые психологические процессы разумного существа, такие как логическое мышление, логический вывод, речь, творчество и т. д.
С другой стороны, его друг и коллега Марвин Мински сформулировал совершенно противоположное определение искусственного интеллекта, которое получило наименование «грязного подхода», или «восходящего искусственного интеллекта». В основе этой парадигмы лежит попытка моделирования естественных процессов, происходящих в самой природе человека. В первую очередь это, конечно же, моделирование нейросетевых процессов в разных аспектах. Наиболее широко проявившейся технологией в рамках грязного подхода стали искусственные нейронные сети, которые моделируют разные процессы человеческого разума на логическом уровне. Можно было бы попробовать смоделировать биохимический уровень, однако для этого не хватает вычислительных мощностей даже сегодня, не говоря уже про те давние времена. Другой известной технологией являются различные генетические и эволюционные методы решения задач. Но в целом этот подход не является «искусственным интеллектом» в том понимании Джона Маккарти, как он определил данный термин.
При этом необходимо понимать, что первоначально предназначением той междисциплинарной области исследований, которая получила название «искусственный интеллект», было моделирование когнитивных функций человека для их исследования на модели, чтобы понять природу интеллекта, разума и сознания человека. Другими словами, искусственный интеллект первоначально рассматривался как довольно фундаментальная область исследований, и только через какое-то время появилась задача по практическому применению наработок, которая нашла своё отражение в создании большого количества искусственных систем, решающих задачи, традиционно относившиеся к прерогативе человека.
Фактически две парадигмы, описанные выше, лежат в основе всякого подхода к разработке искусственного интеллекта. На сегодняшний день таких подходов выделяют семь:
1) интуитивный;
2) логический;
3) символьный;
4) структурный;
5) эволюционный;
6) квазибиологический;
7) агентный.
Надо отметить, что агентный подход к разработке искусственного интеллекта чаще всего рассматривается в рамках так называемой гибридной парадигмы, которая представляет собой смесь нисходящей и восходящей парадигм, берет из них лучшее и старается нивелировать отрицательные стороны. Гибридная парадигма и агентный подход будут рассмотрены в самом конце этой главы.
Интересно то, что в рамках искусственного интеллекта, который, как уже было отмечено, является междисциплинарным научным направлением исследований, имеется ряд задач, которые решаются методами всех или некоторых перечисленных подходов. В частности, к таким задачам традиционно относят:
• поиск информации;
• обработка естественного языка;
• представление знаний;
• машинное обучение;
• распознавание образов;
• интеллектуальный анализ данных, или «дата-майнинг»;
• обработка НЕ-факторов знания;
• принятие решений;
• робототехника;
• роевой интеллект.
Нельзя сказать, что это полный и консистентный список задач, к тому же некоторые из представленных задач в какой-то части пересекаются. Тем не менее это хороший список, являющийся анкером, от которого можно отталкиваться при изучении подходов и методов искусственного интеллекта. Другие исследователи могут предлагать иной список и классификацию задач, но далее в этой книге будет рассматриваться решение именно этих задач разными методами искусственного интеллекта, составляющими те или иные подходы в рамках одной из трёх парадигм.
Что интересно, если попытаться расположить в матрице подходы и парадигмы в строках, а решаемые задачи в столбцах, то получится своеобразная «периодическая система технологий искусственного интеллекта», в ячейках которой будут перечислены различные методы конкретного подхода для решения конкретной задачи. Вот так может выглядеть такая матрица.
Периодическая система технологий искусственного интеллекта
Далее в этой книге во второй главе описано большинство представленных методов решения типовых задач искусственного интеллекта. Ну а пока рассмотрим каждый из перечисленных подходов к построению искусственных интеллектуальных систем подробнее.
Интуитивный подход к искусственному интеллекту был предложен Аланом Тьюрингом в своей ставшей уже знаменитой статье «Вычислительные машины и разум», опубликованной в 1950 г. В ней он предложил процедуру, которая, по его мнению, должна определить на интуитивном уровне, обладает некоторая система интеллектом или нет. Впоследствии эта процедура получила наименование «тест Тьюринга», подвергалась многочисленной критике, была расширена для систем с богатым набором сенсоров и, в общем, дожила до наших дней в качестве вполне себе операционной процедуры. Тем не менее сам подход не является конструктивным, поскольку Тьюринг нигде не говорил о том, как построить интеллектуальную систему.
Честно говоря, сам Тьюринг изложил свой тест немного путано (да ещё и в нескольких вариантах), так что сегодня исследователи ломают копья на тему того, каким образом интеллектуальная система должна проходить данный тест. Но большинство исследователей сходится в одном: прохождение системой теста Тьюринга – необходимый фактор для того, чтобы признать за системой наличие интеллекта, но отнюдь не достаточный. Впрочем, и с этим утверждением многие будут спорить, так как сама природа человеческого интеллекта до сих пор не ясна, потому и бессмысленна разработка какого-либо теста для проверки на наличие интеллекта, «похожего на человеческий». Тем более что основная критика интуитивного подхода заключается в том, что моделирование естественного интеллекта не является единственной возможностью создания интеллектуальной системы. Искусственный интеллект может быть построен на совершенно иных принципах, как это ранее бывало со многими иными изобретениями (колесо для передвижения, реактивная тяга для полёта по воздуху, радиоволны для систем связи и т. д.).
Тем не менее, несмотря на то что тест Тьюринга и интуитивный подход в целом не могут считаться серьёзными инструментами в вопросе разработки искусственного интеллекта, сам по себе тест Тьюринга позволяет определить тот минимальный набор технологий и решаемых задач, которые должна обеспечивать система, чтобы считаться интеллектуальной. Кратко перечислим их.
1. Обработка естественного языка: интеллектуальная система должна уметь общаться с человеком на естественном языке, воспринимая все его неоднозначности, неопределённости и умолчания.
2. Представление знаний: в рамках искусственного интеллекта должны быть представлены как общие, так и специальные знания, при этом система должна постоянно обучаться и пополнять свою базу знаний, в том числе и в процессе диалога с человеком.
3. Логический вывод: используя знания и получаемые на вход запросы от человека, интеллектуальная система должна осуществлять правдоподобный логический вывод, который позволяет сформировать ответ на том же естественном языке. 4. Машинное обучение: система искусственного интеллекта должна быть адаптивной и приспосабливаться к меняющейся ситуации в общении, используя имеющиеся у неё знания в качестве шаблонов и применяя их к схожим ситуациям и, само собой разумеется, актуализируя по результатам свои знания об окружающей среде.
5. Дополнительные сенсоры и исполнительные устройства используются в так называемом «полном тесте Тьюринга», в котором система искусственного интеллекта должна действовать в естественной среде обитания человека, воспринимая её при помощи таких же датчиков, какие есть у человека (видеокамеры, аудиосенсоры, газоанализаторы и др.), и воздействуя на среду при помощи разного рода манипуляторов.
Перечисленное уже наводит на размышления о том, что тест Тьюринга направлен на выявление того, что искусственный интеллект должен успешно «мимикрировать» под человека, хотя для наличия интеллектуальных способностей это совершенно не требуется. Ни одна из перечисленных технологий сама по себе не необходима для того, чтобы считать искусственный объект интеллектуальным. Но в целом наличие этих пяти пунктов с прохождением полного теста Тьюринга позволяет говорить о том, что система может иметь интеллект, похожий на человеческий.
Логический подход основывается на формальной логике. Ведь ещё древнегреческий философ Аристотель сделал успешную попытку формального описания законов человеческого мышления. Сложно сказать, насколько эти законы универсальны, ведь кроме человеческого мышления у нас нет никаких иных примеров, но общее осмысление данного вопроса подсказывает, что формальная логика относится к чистому математическому знанию, т. е. находится в мире чистых идей, а потому может быть общезначимой. Другими словами, мышление, основанное на формальной логике Аристотеля, может быть универсальным, а потому реализация логических правил в искусственной системе может сделать её интеллектуальной. Однако тут имеется та же самая ловушка, как и в случае интуитивного подхода к искусственному интеллекту. Логическое мышление является необходимым условием, но никак не достаточным. Система, обладающая разумом, будет показывать поведение, подчиняющееся законам формальной логики. Но если какая-либо система действует по этим законам, это совсем не значит, что она интеллектуальна.
В рамках математики разработано большое количество формализмов, описывающих логику. Двоичная логика Аристотеля является базовой, над которой надстроены такие варианты, как многозначная логика Лукасевича, нечёткая логика Заде, бесконечнозначная логика антиномий, интуиционистская логика и некоторые другие. Каждый новый формализм был разработан для того, чтобы учесть какие-либо нюансы человеческого мышления и способа принятия решений человеком. Ведь в процессе исследований в направлении логического подхода становилось понятным, что двоичная логика, хотя и является универсальным инструментом размышления и вывода знаний, плохо справляется с такими простейшими аспектами человеческого поведения, как принятие решений в условиях неопределённости, неполноты знания, неточности измерений и т. д.
Однако логический подход сталкивается с серьёзными трудностями, когда возникает необходимость описания неформальных знаний, которые плохо формализуются. Более того, из-за неполноты нашего понимания природы человеческого мышления логический подход всё так же страдает от невозможности полностью описать процесс мышления и принятия решений. Такие феномены, как озарение, интуитивный поиск решения или эмоциональные влияния на принятие решений, не могут быть описаны в рамках логического подхода, хотя они, вне всяких сомнений, являются одним из компонентов человеческого разума.
Тем не менее логический подход составляет основу упомянутой ранее нисходящей парадигмы искусственного интеллекта.
Символьный подход ставит во главу искусственного интеллекта способность человека манипулировать символами (в общем понимании этого термина) при осуществлении своей интеллектуальной деятельности. Тут нужно вспомнить термин «вторая сигнальная система», предложенный русским физиологом Иваном Петровичем Павловым для описания абстрактной системы обозначений, которые используются при мышлении человеком в отрыве от непосредственных ощущений, получаемых всеми сенсорными подсистемами нервной системы. Именно наличие второй сигнальный системы, по мнению некоторых исследователей, отличает разумное существо от животного.
Для упрощения рассмотрим кибернетическую цепочку возникновения реакции человека на стимул из внешней среды на примере зрения. Фотоны различной длины волны попадают на рецепторы сетчатки глаза, где запускают каскад биохимических реакций, результат которых заключается в генерации нервного импульса, идущего по глазному нерву в нервные центры в головном мозге человека. Далее этот импульс диспетчеризуется в ядрах зрительного перекрёста и таламусе, после чего попадает в различные зоны коры головного мозга – первичную зрительную кору, вторичную зрительную кору и т. д., пока след от этого импульса не будет обработан в высших слоях неокортекса, где, как предполагается, и осуществляется манипуляция символами. Именно здесь конкретные каскады биохимических реакций в клетках сетчатки и всех промежуточных нейронах каким-то образом преобразуются в абстрактные символы, имеющие огромное количество ассоциативных связей. И когда человек видит, скажем, кошку, то в его памяти возникают различные образы, именно на символьном уровне связанные с понятием «Feliscatus» («кот домашний», биологическое наименование вида). Человек осознаёт именно эти образы и ассоциативные связи, но никак не осознаёт лежащих в их основе электрофизических и биохимических процессов. Так что разум человека, его интеллект оперирует именно символом «кот домашний», пробегая по отдельным ассоциативным связям, выбор которых зависит от текущего контекста.
Обработка символов построена на выполнении правил различного вида. В дальнейшем мы рассмотрим несколько формализмов, которые конкретизируют и реализуют символьный подход к искусственному интеллекту. Однако все они основаны именно на манипулировании символами как синтаксическими конструкциями. Особенно это касается математических формул, поскольку наибольших успехов символьный подход достиг именно в формальной математике, в таких областях, как автоматическое доказательство теорем, символьная математика, автоматические вывод и рассуждения и т. д. Однако и тут возникает такая же возможность для критики, как и в случае интуитивного подхода, – где возникает сознание, в какой момент интеллектуальная система начинает осознавать себя. И как бы хорошо она ни манипулировала символами, ответить на этот вопрос на сегодняшний день возможным не представляется. Мы ещё вернёмся к этому аспекту в главе про философию сознания и искусственного интеллекта, а пока перейдём к следующему подходу.
Структурный подход, или коннекционизм, исходит из понимания того, что интеллект, разум и сознание являются функцией сложности сети переплетённых и взаимодействующих базовых элементов. Поскольку нервная система человека состоит из нейронов и ряда других специальных клеток, то основой структурного подхода в искусственном интеллекте является использование искусственных нейронных сетей.
Здесь уже упоминалось, что первый искусственный нейрон был разработан Уорреном Мак-Каллоком и Уолтером Питтсом в первой половине XX века. Также в то время Фрэнком Розенблаттом была разработана первая архитектура искусственных нейронных сетей – перцептрон. Фактически это самые первые примеры математических моделей и программных систем, разработанных в духе коннективизма. И здесь необходимо отметить, что в процессе развития перцептронов появились некоторые расширения первоначальной модели, предложенной Ф. Розенблаттом. Самый простой классификатор основан на количестве слоёв в перцептроне: однослойный, с одним скрытым слоем (классический) и многослойный. Все эти типы были в своё время описаны самим Ф. Розенблаттом.
Другая классификация включает: элементарный перцептрон, простой перцептрон, перцептрон с последовательными связями, перцептрон с перекрёстными связями, перцептрон с обратными связями, перцептрон с переменными связями. Первые три класса были описаны Ф. Розенблаттом, а следующие три развиты в дальнейшем при детальной проработке модели искусственных нейронных сетей.
Итак, структурный подход основан на идее о том, что наиболее важной для эмерджентного проявления разума и других подобных функций вплоть до сознания является сетевая структура. Это значит, что моделирование должно затрагивать не только базовые элементы типа нейронов, но и их взаимосвязанные сети. При этом полагается, что сеть элементов как сложная система обладает нелинейными свойствами относительно базовых элементов, а потому при увеличении количества взаимосвязанных элементов сложность модели изменяется нелинейно и зачастую даже непредсказуемым образом, так что при переходе некоторого порога сложности как раз и начинают проявляться те самые эмерджентные эффекты, которых мы так ждём. До сегодняшнего дня главным и фактически единственным представителем структурного подхода являются искусственные нейронные сети.
Эволюционный подход реализует так называемую «искусственную эволюцию» и фактически решает оптимизационную задачу поиска значения целевой функции в заданном пространстве решений с установленными ограничениями. Этот подход содержит большое количество эвристических методов, некоторые из которых используются даже для гарантированного нахождения оптимума для мультимодальных недифференцируемых функций в пространствах высоких размерностей. Важным методом эволюционного подхода являются генетические алгоритмы, которые мы рассмотрим чуть позже. Но здесь также есть несколько других важных методов, в числе которых находятся эволюционное программирование и даже нейроэволюция, когда искусственному отбору подвергаются нейронные сети.
Итак, в рамках эволюционного подхода обычно выделяют следующие технологии и методы: эволюционное программирование, генетическое программирование, эволюционные стратегии, генетические алгоритмы, дифференциальная эволюция и нейроэволюция. Другими словами, а что, если вычислительные процессы могли бы эволюционировать так же, как это делают биологические виды в своей экологической среде? Возможно, получилось бы «выращивать» программы для оптимального решения поставленной задачи? Эволюционное программирование как раз и основано на этой идее.
Если же в качестве объектов отбора выступают сами программы, то получается уже генетическое программирование. Ведь, действительно, программы пишутся на определённом языке программирования и в конечном итоге представляют собой строки символов. Эти строки можно подвергнуть генетическим преобразованиям и отбору. Эта очень мощная идея получила своё развитие в том, что программы начали писать и оптимизировать другие программы, и уже исследователи, запустившие процесс, не могут разобрать и интерпретировать полученные исходные коды, которые работают правильно и часто очень эффективно.
Генетические алгоритмы – это наиболее яркий представитель эволюционного подхода. Сами по себе они опять являются одним из эвристических методов оптимизации для поиска оптимального решения (или, как минимум, субоптимального). Они работают с данными, которые могут быть представлены в виде «хромосом» – последовательностей генов, т. е. списков каких-либо значений, к которым можно применить генетические операции. Здесь главное – чтобы на генах были определены эти самые генетические операции, которые возвращали бы приемлемый результат, имеющий смысл.
Мы ещё детально ознакомимся с эволюционными алгоритмами и вообще эволюционным подходом во второй главе.
Идём дальше и кратко коснёмся квазибиологического подхода и его методов. Фактически это отдельное направление исследований в искусственном интеллекте, так как оно основано не на цифровом моделировании in silico разных аспектов интеллекта, а на применении биомолекулярных механизмов для того же самого. Этот подход ещё называется «биокомпьютингом», и это очень перспективное направление. В рамках квазибиологического подхода разработано большое количестве методов – начиная от биомолекулярной электроники, молекулярных вычислений и заканчивая нейрокомпьютингом. В последнем направлении важной вехой является разработка нейроморфных чипов. И иногда мне кажется, что прорыв в области искусственного интеллекта будет лежать на пересечении трёх областей – техники, информатики и химии. Но посмотрим…
В основе этого подхода лежит понимание, что феномены человеческого поведения, наша способность к обучению и адаптации есть следствие именно биологической структуры и особенностей её функционирования. Хотя, скорее всего, это очень слабая гипотеза. Вычисления в рамках квазибиологического подхода организуются при помощи живых тканей, клеток, вирусов и различных биомолекул. Часто используются молекулы дезоксирибонуклеиновой кислоты, на основе которой создают ДНК-компьютер. Кроме ДНК, в качестве биопроцессора могут использоваться также белковые молекулы и биологические мембраны.
Обычно для решения определённой задачи создаётся так называемая «индивидуальная машина», которая, в отличие от универсальной машины Тьюринга, направлена на решение конкретной задачи, причём обычно делает это более эффективным способом, поскольку индивидуальная машина специально сконструирована для решения именно этой задачи. Машина Тьюринга, лежащая в основе стандартной вычислительной модели, выполняет свои команды последовательно, а в рамках квазибиологической парадигмы часто рассматривается массовый параллелизм. Ну вот если, к примеру, рассмотреть ДНК-компьютер, то в нём все молекулы ДНК одновременно участвуют во взаимодействиях, параллельно проводя вычисления.
Два самых главных направления в рамках квазибиологического подхода – это молекулярные вычисления и биомолекулярная электроника. Можно ещё упомянуть нейрокомпьютинг и создание нейроморфных чипов, но они чаще всего рассматриваются как часть структурного подхода и искусственных нейронных сетей.
Молекулярные вычисления – это отдельная вычислительная модель, в которой решение задачи осуществляется при помощи проведения сложных биохимических или нанотехнологических реакций. Молекулярные компьютеры – это молекулы, запрограммированные на нужные свойства и поведение, которые, участвуя в химических реакциях, как бы «выращивают» результат. Что интересно, идею биокомпьютинга подсказал выдающийся математик Джон фон Нейман в своей книге «Теория самовоспроизводящихся автоматов», которую, кстати, очень рекомендую для внимательного чтения. В этой книге описан проект клеточных автоматов, которые могут самовоспроизводиться, как живая клетка.
Почти в каждой живой клетке нашего организма есть длинная молекула ДНК, кодирующая генетическую информацию. При помощи различных ферментов цепочки ДНК могут быть разрезаны, склеены, в них могут добавляться буквы генетического кода или удаляться из них. Всё это – базовые операции работы с информацией, которые могут быть использованы для производства вычислений. Более того, цепочки ДНК могут воспроизводиться и клонироваться. Это позволяет запустить массовый параллелизм поиска решения. В небольшой пробирке после проведения должным образом сконструированной биохимической реакции будет получен результат, который считывается специальной аппаратурой.
Интерес вызывает то, что для некоторых задач молекулярные компьютеры очень быстро и точно находят приемлемые решения, в то время как традиционные компьютеры затрудняются это сделать. Например, решение задачи коммивояжёра, т. е. поиска кратчайшего пути обхода графа, при помощи реакций с ДНК осуществляется практически мгновенно, в то время как для обычного компьютера требуется огромное количество времени. Правда, тут есть одна тонкость, которая мешает работе обычному компьютеру, – это комбинаторный взрыв. И если в традиционной архитектуре он ведёт к увеличению времени решения, то для ДНК-компьютера требуется подготовка огромного количества вариантов нуклеотидных нитей. Соответственно, объём пробирки растёт так же, как и количество вариантов в комбинаторном взрыве.
В общем, часто биокомпьютинг можно охарактеризовать как новую парадигму вычислений, которая, в отличие от традиционной вычислительной модели, работает быстро, но при решении сложных задач с комбинаторным взрывом растёт не время вычислений, а необходимый для них объём биокомпьютера.
Вместе с тем в последнее время всё активнее разрабатывается агентный подход к построению искусственного интеллекта. В рамках этого подхода изменена точка зрения на цель построения интеллектуальной системы и считается, что построить нужно систему не с разумным поведением, а с рациональным. С одной стороны, это серьёзно облегчает задачу, поскольку, в отличие от понятий «разум» или «интеллект», понятия «рациональность» и «рациональное поведение» можно строго формализовать (например, рациональное поведение – это выбор и достижение оптимальной цели с минимизацией затраченных на это ресурсов). С другой стороны, для демонстрации рационального поведения агент должен обладать достаточной «разумностью», чтобы определить цель, составить стратегию её достижения и выполнить её.
Каждый агент – это полноценная кибернетическая машина, которая имеет систему управления, непрерывно получающую информацию с сенсорных систем агента и воздействующую на окружающую среду при помощи исполнительных устройств (или актуаторов). При этом подход не определяет сущность сенсорных систем и актуаторов – их природа может быть произвольной. Поэтому агентный подход одинаково применим как к чисто программным сущностям, работающим в некоторой искусственной среде, так и к программно-аппаратным комплексам, равно как и вообще к биологическим системам.
Общая схема агента и его взаимодействия со средой
Агентный подход интересен тем, что в его рамках можно использовать эволюционные алгоритмы, которые подбирают интеллектуальных агентов, исходя из степени их приспособленности к достижению цели. Во время взаимодействия агентов осуществляется отбор наиболее успешных, которые затем используются для генерации нового поколения агентов, среди которых опять применяются те же самые процедуры оценки и отбора. В итоге наиболее успешное поколение решает задачи и достигает целей наиболее эффективным образом. Это идеальный вариант, который сегодня сложно достижим, но стремиться к нему интересно. Также агентный подход лежит в основе так называемых многоагентных систем, в рамках которых осуществляется общее целеполагание, после чего каждому индивидуальному агенту даётся свобода действий в определённых рамках, где он имеет возможности и альтернативы по разработке и реализации различных стратегий достижения своей частной цели. В процессе этого агенты взаимодействуют друг с другом и со средой, обмениваясь информацией и выполняя запросы других агентов. Кроме того, вполне может быть использована идея так называемого «роевого интеллекта», когда каждая отдельная «особь» (то есть агент) интеллектом не обладает, но в целом «рой» (множество агентов, многоагентная система) обладает определёнными интеллектуальными способностями. Надо отметить, что всё перечисленное является одним из наиболее перспективных направлений исследований по искусственному интеллекту.