Читать книгу Глоссариум по искусственному интеллекту: 2500 терминов - Александр Николаевич Чашин, Инна Евгеньевна Скворцова, Александр Николаевич Афонин - Страница 6
Глоссариум по искусственному интеллекту
«Г»
ОглавлениеГенеративно-состязательная сеть (Generative Adversarial Network) – это алгоритм машинного обучения без учителя, построенный на комбинации из двух нейронных сетей, одна из которых (сеть G) генерирует образцы, а другая (сеть D) старается отличить правильные («подлинные») образцы от неправильных. Так как сети G и D имеют противоположные цели – создать образцы и отбраковать образцы – между ними возникает антагонистическая игра. Генеративно-состязательную сеть описал Ян Гудфеллоу из компании Google в 2014 году.
Использование этой техники позволяет, в частности, генерировать фотографии, которые человеческим глазом воспринимаются как натуральные изображения. Например, известна попытка синтезировать фотографии кошек, которые вводят в заблуждение эксперта, считающего их естественными фото. Кроме того, GAN может использоваться для улучшения качества нечётких или частично испорченных фотографий.
Генеративные модели (Generative model) – это семейство архитектур ИИ, целью которых является создание образцов данных с нуля. Они достигают этого, фиксируя распределение данных того типа вещей, которые мы хотим генерировать. На практике модель может создать (сгенерировать) новые примеры из обучающего набора данных. Например, генеративная модель может создавать стихи после обучения на наборе данных сборника Пушкина.
Генеративный ИИ (Generative AI) – это метод ИИ, который изучает представление артефактов из данных и использует его для создания совершенно новых, полностью оригинальных артефактов, сохраняющих сходство с исходными данными.
Генератор (Generator) – это подсистема в генеративно-состязательной сети, которая создает новые примеры.
Генерация естественного языка (Natural language generation NLG) – это подмножество обработки естественного языка. В то время как понимание естественного языка сосредоточено на понимании компьютерного чтения, генерация естественного языка позволяет компьютерам писать. NLG – это процесс создания текстового ответа на человеческом языке на основе некоторых входных данных. Этот текст также можно преобразовать в речевой формат с помощью служб преобразования текста в речь. NLG также включает в себя возможности суммирования текста, которые генерируют сводки из входящих документов, сохраняя при этом целостность информации.
Генерация кандидатов (Candidate generation) – это первый этап рекомендации. По запросу система генерирует набор релевантных кандидатов.
Генерация речи (Speech generation) – это задача создания речи из какой-либо другой модальности, такой как текст, движения губ и т. д. Также под синтезом речи понимается компьютерное моделирование человеческой речи. Оно используется для преобразования письменной информации в слуховую там, где это более удобно, особенно для мобильных приложений, таких как голосовая электронная почта и единая система обмена сообщениями. Синтез речи также используется для помощи слабовидящим, так что, например, содержимое экрана дисплея может быть автоматически прочитано вслух слепому пользователю. Синтез речи является аналогом речи или распознавания голоса.
Генетический алгоритм (Genetic Algorithm) – это эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём случайного подбора, комбинирования и вариации искомых параметров с использованием механизмов, аналогичных естественному отбору в природе. Генетический алгоритм требует генетического представления решения и функции пригодности для оценки решения.
Генетический оператор (Genetic operator) – это оператор, используемый в генетических алгоритмах для направления алгоритма к решению данной проблемы. Существует три основных типа операторов (мутация, скрещивание и отбор), которые должны работать в сочетании друг с другом, чтобы алгоритм был успешным.
Геномные данные (Genomic data) – этот термин относится к данным генома и ДНК организма. Они используются в биоинформатике для сбора, хранения и обработки геномов живых существ. Геномные данные обычно требуют большого объема памяти и специального программного обеспечения для анализа.
Гетероассоциативная память (Hetero Associative memory) – это память, похожа на сеть автоассоциативной памяти, это также однослойная нейронная сеть. Однако в этой сети входной обучающий вектор и выходные целевые векторы не совпадают. Веса определяются таким образом, чтобы сеть хранила набор шаблонов. Гетероассоциативная сеть носит статический характер, следовательно, в ней не будет нелинейных операций и операций с запаздыванием. Архитектура, как показано на следующем рисунке, архитектура сети гетероассоциативной памяти имеет «n» количество входных обучающих векторов и «m» количество выходных целевых векторов.
Гибридизация человека и машины (Human-machine hybridization) – это технология, позволяющая соединить человеческое тело и технологическую систему. Текущий подход к разработке интеллектуальных систем (например, на основе технологий искусственного интеллекта) в основном ориентирован на данные. Он имеет ряд ограничений: принципиально невозможно собрать данные для моделирования сложных объектов и процессов; обучение нейронных сетей требует огромных вычислительных и энергетических ресурсов; и решения не объяснимы. Современные системы ИИ (основанные на узком ИИ) вряд ли можно считать интеллектом. Это скорее следующий уровень автоматизации человеческого труда.
Перспективной концепцией, лишенной вышеуказанных ограничений, является концепция гибридного интеллекта, объединяющая сильные стороны узкого ИИ и возможности человека. Гибридные интеллектуальные системы обладают следующими ключевыми особенностями: Когнитивная интероперабельность – позволяет искусственным и естественным интеллектуальным агентам легко общаться для совместного решения проблемы; Взаимная эволюция (коэволюция) – позволяет гибридной системе развиваться, накапливать знания и формировать общую онтологию предметной области. Ядром гибридизации человеко-машинного интеллекта является функциональная совместимость биологических и технических систем на разных уровнях от физических сигналов до когнитивных моделей.
Гибридные модели (Hybrid models) – это комбинации моделей на основе данных с «классическими» моделями, а также комплексирование различных методов искусственного интеллекта.
Гибридный суперкомпьютер (Hybrid supercomputer) – это вычислительная система, объединяющая ЦП традиционной архитектуры (например, x86) и ускорители, например, на вычислительных графических процессорах.
Гиперпараметр (настройка гиперпараметра) (Hyperparameter) – в машинном обучении – это параметры алгоритмов, значения которых устанавливаются перед запуском процесса обучения. Гиперпараметры используются для управления процессом обучения [23].
Гипер-эвристика (Hyper-heuristic) – это эвристический метод решения задачи, который стремится автоматизировать, часто путем включения методов машинного обучения, процесс выбора, объединения, генерации или адаптации нескольких более простых эвристик (или компонентов таких эвристик) для эффективного решения задач вычислительного поиска. Одной из мотиваций для изучения гипер-эвристики является создание систем, которые могут обрабатывать классы проблем, а не решать только одну проблему.
Глубина (Depth) – это количество слоев (включая любые встраивающие слои) в нейронной сети, которые изучают веса. Например, нейронная сеть с 5 скрытыми слоями и 1 выходным слоем имеет глубину 6.
Глубокая модель (Deep model) – это тип нейронной сети, содержащий несколько скрытых слоев.
Глубокая нейронная сеть (Deep neural network, глубинная нейронная сеть, ГНС) многослойная сеть, содержащая между входным и выходным слоями несколько (много) скрытых слоёв нейронов, что позволяет моделировать сложные нелинейные отношения. ГНС сейчас всё чаще используются для решения таких задач искусственного интеллекта, как распознавание речи, обработка текстов на естественном языке, компьютерное зрение и т.п., в том числе в робототехнике.
Глубоко разделяемая сверточная нейронная сеть (Depthwise separable convolutional neural network) – это архитектура сверточной нейронной сети, основанная на Inception (раздел с данными на GitHub), но в которой модули Inception заменены свертками, отделяемыми по глубине. Также известен как Xception.
Глубокое обучение (Deep Learning) – это глубокое (глубинное) структурированное или иерархическое машинное обучение, набор алгоритмов и методов машинного обучения (machine learning) на основе различных видов представления данных. Обучение может быть контролируемым, полу-контролируемым (semi-supervised) или неконтролируемым. Использование в глубоком обучении рекуррентных нейронных сетей (recurrent neural networks), позволяет эффективно решать задачи в областях компьютерного зрения, распознавания речи, обработки текстов на естественном языке, машинного перевода, биоинформатики и др.
Государство-как-Платформа (State-as-Platform) – это концепция трансформации государственного управления с использованием возможностей, которые нам дают новые технологии. Целевой функцией реализации идеи «Государство-как-Платформа» является благополучие граждан и содействие экономическому росту, основанному на внедрении технологий. В фокусе развертывания Платформы находится гражданин в условиях новой цифровой реальности. Государство должно создать условия, которые помогут человеку раскрыть свои способности, и сформировать комфортную и безопасную среду для его жизни и реализации потенциала, а также для создания и внедрения инновационных технологий.
Градиент (Gradient) – это вектор, своим направлением указывающий направление наибольшего возрастания некоторой скалярной величины (значение которой меняется от одной точки пространства к другой, образуя скалярное поле), а по величине (модулю) равный скорости роста этой величины в этом направлении.
Градиентная обрезка (Gradient clipping) – это метод, позволяющий справиться с проблемой взрывающихся градиентов путем искусственного ограничения (отсечения) максимального значения градиентов при использовании градиентного спуска для обучения модели.
Градиентный спуск (Gradient descent) – это метод минимизации потерь путем вычисления градиентов потерь по отношению к параметрам модели на основе обучающих данных. Градиентный спуск итеративно корректирует параметры, постепенно находя наилучшую комбинацию весов и смещения для минимизации потерь.
Граница решения (Decision boundary) – это разделитель между классами, изученными моделью в задачах классификации двоичного класса или нескольких классов.
Граница решения или поверхность решения (В статистико-классификационной задаче с двумя классами) (Decision boundary) – это гиперповерхность, разделяющая нижележащее векторное пространство на два множества, по одному для каждого класса. Классификатор классифицирует все точки на одной стороне границы принятия решения как принадлежащие одному классу, а все точки на другой стороне как принадлежащие другому классу.
Граф (Graph) – это таблица, составленная из данных (тензоров) и математических операций. TensorFlow – это библиотека для численных расчетов, в которой данные проходят через граф. Данные в TensorFlow представлены n-мерными массивами – тензорами.
Граф (абстрактный тип данных) (Graph) – в информатике граф – это абстрактный тип данных, который предназначен для реализации концепций неориентированного графа и ориентированного графа из математики; в частности, область теории графов.
Граф (с точки зрения компьютерных наук и дискретной математики) (Graph) – это абстрактный способ представления типов отношений, например дорог, соединяющих города, и других видов сетей. Графы состоят из рёбер и вершин. Вершина – это точка на графе, а ребро – это то, что соединяет две точки на графе.
Графический кластер (Graphics cluster) – это доминирующий высокоуровневый блок, включающий все ключевые графические составляющие.
Графический процессор (computational Graphics Processing Unit, computational GPU) – это вычислитель, многоядерный ГП, используемый в гибридных суперкомпьютерах для выполнения параллельных математических вычислений; например, один из первых образцов ГП этой категории содержит более 3 млрд транзисторов – 512 ядер CUDA и память ёмкостью до 6 Гбайт
Графический процессор (Graphical Processing Unit) – это отдельный процессор, расположенный на видеокарте, который выполняет обработку 2D или 3D графики. Имея процессор на видеокарте, компьютерный процессор освобождается от лишней работы и может выполнять все другие важные задачи быстрее. Особенностью графического процессора (GPU), является то, что он максимально нацелен на увеличение скорости расчета именно графической информации (текстур и объектов). Благодаря своей архитектуре такие процессоры намного эффективнее обрабатывают графическую информацию, нежели типичный центральный процессор компьютера.
Графический процессор-вычислитель (Computational Graphics Processing Unit) (ГП-вычислитель cGPU) – это многоядерный ГП, используемый в гибридных суперкомпьютерах для выполнения параллельных математических вычислений; например, один из первых образцов ГП этой категории содержит более 3 млрд транзисторов – 512 ядер CUDA и память ёмкостью до 6 Гбайт.
Графовая база данных (Graph database) — это база, предназначенная для хранения взаимосвязей и навигации в них. Взаимосвязи в графовых базах данных являются объектами высшего порядка, в которых заключается основная ценность этих баз данных. В графовых базах данных используются узлы для хранения сущностей данных и ребра для хранения взаимосвязей между сущностями. Ребро всегда имеет начальный узел, конечный узел, тип и направление. Ребра могут описывать взаимосвязи типа «родитель-потомок», действия, права владения и т. п. Ограничения на количество и тип взаимосвязей, которые может иметь узел, отсутствуют.
Графовые базы данных имеют ряд преимуществ в таких примерах использования, как социальные сети, сервисы рекомендаций и системы выявления мошенничества, когда требуется создавать взаимосвязи между данными и быстро их запрашивать.
Графовые нейронные сети (Graph neural networks) – это класс методов глубокого обучения, предназначенных для выполнения выводов на основе данных, описанных графами. Графовые нейронные сети – это нейронные сети, которые можно напрямую применять к графам и которые обеспечивают простой способ выполнения задач прогнозирования на уровне узлов, ребер и графов. GNN могут делать то, что не смогли сделать сверточные нейронные сети (CNN). Также под Графовыми нейронными сетями понимают нейронные модели, которые фиксируют зависимость графов посредством передачи сообщений между узлами графов. В последние годы варианты GNN, такие как сверточная сеть графа (GCN), сеть внимания графа (GAT), рекуррентная сеть графа (GRN), продемонстрировали новаторские характеристики во многих задачах глубокого обучения.
Графы знаний (Knowledge graphs) – это структуры данных, представляющие знания о реальном мире, включая сущности люди, компании, цифровые активы и т. д.) и их отношения, которые придерживаются модели данных графа – сети узлов (вершин) и соединения (ребер / дуг).
Гребенчатая регуляризация (Ridge regularization) – синоним «Регуляризации L2». Термин гребенчатая регуляризация чаще используется в контексте чистой статистики, тогда как регуляризация L2 чаще используется в машинном обучении.
23
Гиперпараметр [Электронный ресурс] //hmong.ru URL: https://hmong.ru/wiki/Hyper-heuristics (дата обращения: 07.07.2022)