
Модель сама формирует кластеры нейронов и укрепляет связи между ними во время рассуждений — прямо как люди. При этом она анализирует и делает выводы, а не просто повторяет выученную информацию.
https://arxiv.org/abs/2509.26507
«BDH — это практичная и эффективная современная архитектура для обучения последовательностям в пространстве состояний на основе внимания. Помимо того, что BDH является графовой моделью, она оптимизирована для работы на графических процессорах. Она демонстрирует законы масштабирования, характерные для трансформеров: эмпирически доказано, что BDH не уступает GPT2 в задачах, связанных с языком и переводом, при том же количестве параметров (от 10 млн до 1 млрд) и тех же обучающих данных.
Модель BDH биологически правдоподобна и объясняет один из возможных механизмов, с помощью которого человеческие нейроны могут осуществлять речевую деятельность.»
https://habr.com/ru/companies/bothub/news/953988/ : «Польский стартап Pathway представил архитектуру Dragon Hatchling (BDH), которая претендует на решение одной из самых сложных проблем искусственного интеллекта — генерализацию во времени. Это способность модели учиться на опыте, строить прогнозы и переносить знания на новые задачи, а не просто воспроизводить заученные паттерны.
BDH принципиально отличается от классических трансформеров. Вместо огромных матриц внимания она строит локальные нейронные связи, использует геббовское обучение и динамическую перестройку структуры во время тренировки. По сути, сеть сама формирует «неокортекс» — подобие той части человеческого мозга, которая отвечает за обучение, память и принятие решений.
Разработчики подчёркивают, что такая модель требует меньше вычислительных ресурсов, оставаясь сопоставимой по производительности с системами GPT-уровня. Более того, за счёт своей структуры BDH может быть более интерпретируемой, чем трансформеры: легче понять, почему она приняла то или иное решение. Это открывает путь к созданию систем, которые будут адаптироваться и учиться в реальном времени, как это делают люди, а не проходить каждый раз долгий процесс переобучения.»
Источник: arxiv.org
Источник: ai-news.ru



























