Читать книгу Искусственный интеллект и робототехника в индустрии 4.0. Стратегическая трансформация производственных процессов - Сергей Владимирович Каневский, Сергей Владимирович Шевалдин, Сергей Владимирович Соболенко - Страница 20
2. Материалы и методы исследования и принципы исследования
ОглавлениеОсновным материалом для исследования послужил структурированный текст обучающего курса, включая его модульную структуру, детальное расписание и «ГИЗАУРУС» ключевых терминов, связанных с искусственным интеллектом в промышленности и робототехнике. Этот корпус рассматривается как репрезентативный срез актуального знания и практического опыта в данной предметной области.
Принципом исследования является системный подход, предполагающий рассмотрение всех элементов предметной области (технологий, методов, организационных структур) не изолированно, а в их взаимосвязи и иерархии, направленной на достижение единой цели – автономизации производства.
Метод исследования: тематический контент-анализ с индуктивно-дедуктивным картированием. Этот метод выбран для обеспечения воспроизводимости и объективности классификации.
Процесс тематического контент-анализа начинается с индуктивного кодирования, при котором каждый термин из «ГИЗАУРУСа» и каждая тема из модулей (например, «предиктивная аналитика в производстве», «SLAM-алгоритмы») кодируются по их основной функциональной принадлежности (например, «сбор данных», «обработка», «управление», «оптимизация»).
Далее применяется дедуктивное картирование (согласно структуре курса), где выделяются пять основных тематических кластеров, соответствующих пяти модулям курса: 1. Стратегия и готовность; 2. Робототехнические тренды и предикция; 3. Роботизация и координация; 4. Практическое внедрение и метрики; 5. Продвинутые системы и цифровые двойники.
Для обеспечения воспроизводимости, каждый кластер детализируется через входящие в него термины, методы и принципы. Например, Кластер 2 «Робототехнические тренды» включает методы анализа временных рядов, обнаружения аномалий и принципы расчета OEE и RUL.
Методологическим принципом является принцип сквозной цифровизации, который позволяет проследить, как данные из одного кластера (например, аудит источников данных в Кластере 1) питают модели в другом кластере (машинное обучение в Кластере 5), и как это влияет на операционные метрики (KPI, ROI в Кластере 4).
Принцип воспроизводимости
Для обеспечения возможности независимой верификации и воспроизведения всех этапов исследования и полученных результатов, предпринимаются следующие шаги:
– Формирование корпуса: исходный текст принят за основной корпус.
– Выделение единиц анализа: уникальные термины из «ГИЗАУРУСа».
– Присвоение категорий: каждая единица анализа категоризируется в один из тематических модулей/кластеров, обеспечивая, что каждый термин или подтема, упомянутые в курсе, однозначно попадает в один из разделов.
– Проверка внутренней согласованности: анализируется, что логика перехода между модулями (например, от «стратегии интеграции ИИ-технологий» к «оценке эффективности внедрения») соответствует принципам AI Maturity Model.
– Предварительная обработка данных (препроцессинг): осуществлена стандартизированная очистка корпуса от служебных символов, нетекстовых элементов и метаданных. Применялись унифицированные методы токенизации и лемматизации. При этом, был зафиксирован полный список стоп-слов, включающий наиболее частотные лексемы русского языка, а также специализированные термины, не несущие смысловой нагрузки в контексте данного исследования.
– Спецификация среды разработки: предоставляется детальное описание программно-аппаратной конфигурации. Использовалась версия языка программирования Python 3.10.x с применением библиотек: NLTK (версия 3.8.1), scikit-learn (версия 1.2.2) и Pandas (версия 1.5.3). Для работы с моделями машинного обучения и нейронными сетями применялся фреймворк PyTorch.
– Детализация методов: подробно описываются ключевые методы ИИ, такие как глубокое обучение, Обучение с подкреплением и Федерированное обучение, которые могут быть воспроизведены в лабораторных условиях при наличии соответствующей кросс-функциональной команды данных и вычислительной инфраструктуры (Edge Computing).
– Описание методологии и параметров: алгоритмы и параметры, использованные для получения конечных результатов, чётко изложены. В частности, для статистического анализа и кластеризации данных корпуса применялся метод k-средних с параметром k=5. Для обучения модели тематического моделирования (LDA) зафиксированы гиперпараметры: количество тем T=10, количество итераций Iter=1500, и коэффициент alpha = 0.1.
– Верификация результатов и контрольные метрики: предоставляется набор ключевых промежуточных и финальных метрик. Контрольная метрика F_1 для классификации составила 0.88 (с отклонением pm 0.02). Для каждого этапа анализа доступны контрольные суммы (checksum) исходного и обработанного корпусов, что позволяет независимо подтвердить идентичность входных данных при повторном запуске.
– Доступность кода и данных: весь исходный код, скрипты обработки и генерации отчетов, а также анонимизированный корпус данных доступны в специализированном репозитории для обеспечения полной прозрачности и воспроизводимости результатов.
Применение принципа «тест на обратимость» к базовым принципам внедрения ИИ позволяет убедиться в устойчивости предложенной методологии. Например, если принцип требует наличия сбалансированных данных для обучения, то обратное утверждение (отсутствие сбалансированных данных приводит к неработоспособности модели) должно быть истинным.
Использование мультикритериальной оптимизации как мета-метода при построении классификации позволяет учитывать не только технологическую новизну, но и экономическую целесообразность (Порог рентабельности), что делает предложенную структуру максимально практичной.