Читать книгу discens - - Страница 2
Поддоминанта 1.1: Нейроны как мышцы – Когнитивная пластичность в действии
ОглавлениеСтимул пробуждения: Аналогия, бьющая по синапсам. Представьте импульс: ваш мозг – не хрупкий шар стекла, а живая "тренажёрка" из 86 миллиардов нейронов-мышц, где каждый повторяющийся сигнал – это подъём штанги, гипертрофирующий связи.
В когнитивной психологии это доминанта нейропластичности: стимулы (входные данные) не просто проходят – они экспоненциально усиливают синапсы, превращая хаос в "дешифрованные" карты знаний. Шум? Линейные модели вроде rote memorization (механического зубрёжки), где повторения слабеют, как атрофия без нагрузки. Фильтр? Chunking Миллера – сжатие 7±2 элементов в один мощный "кубик" инсайта, освобождая рабочую память для междисциплинарного transfer.
Доминанта механизма: Hebbian learning – "Клетки, что стреляют вместе, срастаются". Дональд Хебб (1949) запустил этот сигнал: одновременная активация пре- и постсинаптических нейронов вызывает долгосрочную потенциацию (LTP) – нелинейное, часто экспоненциальное усиление силы связи. Представьте: первый стимул – слабый импульс (как лёгкая разминка), но повторения вызывают каскад кальция, молекулярный "взрыв" AMPA-рецепторов, где сила синапса растёт multiplicative (w_new = w_old * (1 + Δ)), фильтруя шум изоляции. В 2025-м свежие данные подтверждают: Hebbian в рекуррентных сетях формирует perceptual biases, имитируя мозг, где пластичность не линейна, а адаптивна – как мышца, переходящая от новичка к атлету.
Nature.com The combination of Hebbian and predictive plasticity learns …
Шум здесь – отсутствие корреляции: без совместной активации LTD (долгосрочная депрессия) ослабляет связи, как "use it or lose it" в зале.
Обработка хаоса: От стимулов к "дешифрованным" картам. Кибернетическая петля замыкается: повторяющиеся входы упрощают энтропию, формируя cognitive maps (по Толману, 1948) – абстрактные сети паттернов. Hebbian "сшивает" их: хаос данных (тысячи сенсорных сигналов) калибруется в компактные представления, где "эволюция" из биологии становится "оптимизацией" в ИИ. Научно-популярно: как шахматист видит доску не 64 квадратами, а 7±2 chunks фигур – Миллер (1956) открыл лимит рабочей памяти, но chunking обходит его экспоненциально.
Шум vs. фильтр: Rote memorization как ловушка линейности. Зубрёжка – это слабый сигнал без ассоциаций: краткосрочный (кривая Эббингауза: 70% забывается за день), не переносимый, как мышца без прогрессии. Meaningful learning (с Hebbian) в 2–5 раз эффективнее: связывает новое со старым, усиливая transfer. Фильтр chunking: группируйте "атомы" знаний – из 15 цифр телефона в 3 chunks (код/номер/добавка) – и рабочая память взлетает.
Шум (Rote)
Фильтр (Hebbian + Chunking)
Линейный рост, быстрое угасание
Экспоненциальное усиление LTP
Изоляция фактов
Cognitive maps для transfer
Перегрузка ( >7 элементов)
Сжатие в 7±2 супер-кубиков
Краткосрочная память
Долгосрочные синаптические "мышцы"
Практический импульс: Тренировка доминанты. Начните с 10-мин сессии: возьмите паттерн "адаптация" (биология) – chunk'те в 3 элемента (стимул/вариация/выбор) – повторите с финансами (портфель). Сигнал → активация → карта. Через неделю: экспоненциальный буст!
Эта поддоминанта – ваш первый feedback-loop: стимул аналогии усилил связи, отфильтровал шум, стабилизировал пластичность. Готовы к следующей петле? Доминанта эволюционирует!