С 26 по 30 июня в Пятигорском государственном университете прошла традиционная Международная конференция по когнитивной науке «МККН-2024». И вполне традиционно в ней принял участие наш 71 отдел во главе с Александром Пановым, который очень искренне описал мероприятие в своём Телеграм-канале: «Участвую в ней с 2010 года, и она всегда отличалась душевностью и свободой обсуждения (действительно!). Это — чуть ли не единственное место в России, где о сознании говорят с научной точки зрения, с экспериментами, моделями и определениями». Вместе с Петром Кудеровым и аспирантами Центра когнитивного моделирования МФТИ он презентовал «Биологически правдоподобную модель формирования эпизодической памяти и когнитивных карт» (ссылка).
Модель для исследования возможных механизмов формирования эпизодической памяти по Никите Клейтону и когнитивных карт Эдварда Толмана при использовании локальных хеббовских правил обучения и модели нейрона с дендритными сегментами объясняет запоминание последовательностей сенсорных стимулов и обобщение контекста наблюдений между эпизодами в гиппокампе путём интеграции предсказаний гиппокампа и коры. Равно как и явления, рассматриваемые моделями CSCG и TEM. Однако, в отличие от них, интеграция распределённого сенсорного входа необходима для формирования контекста, используемого гиппокампом.
Модель охватывает части соматосенсорной области коры головного мозга крысы и гиппокамп. При этом она тестировалась на задаче поиска еды в закрытом пространстве, выполняемой искусственным агентом в виртуальной среде. Результаты показали, что, используя эпизодическую память и накопленный контекст, искусственный агент способен успешно достигать цели в среде AnimalAI после небольшого числа обучающих эпизодов, а сенсорные стимулы генерируются при перемещении виртуальной крысы в среде.
А 3 июля, как мы и анонсировали, Александр почтил своим присутствием знакомую нам онлайн-конференцию DataStart с часовой лекцией про трансформеров, Мамбу и память в обучении с подкреплением (ссылка) — эксклюзивным докладом для тех, кто желает погрузиться в тренды заявленной тематики максимально глубоко. Всё об RL и контрастивном BERT, об интерактивном и автономном обучении, о стабилизации трансформеров, задачах памяти и экспериментальных средах, а также об альтернативах в лице Mamba и SSM. Лучше нашего спикера об этом всё равно никто не расскажет, поэтому настоятельно рекомендуем зарегистрироваться на сайте для просмотра видео.
Cсылки по теме: