Польский стартап Pathway представил архитектуру Dragon Hatchling (BDH), которая претендует на решение одной из самых сложных проблем искусственного интеллекта — генерализацию во времени. Это способность модели учиться на опыте, строить прогнозы и переносить знания на новые задачи, а не просто воспроизводить заученные паттерны.
BDH принципиально отличается от классических трансформеров. Вместо огромных матриц внимания она строит локальные нейронные связи, использует геббовское обучение и динамическую перестройку структуры во время тренировки. По сути, сеть сама формирует «неокортекс» — подобие той части человеческого мозга, которая отвечает за обучение, память и принятие решений.
Разработчики подчёркивают, что такая модель требует меньше вычислительных ресурсов, оставаясь сопоставимой по производительности с системами GPT-уровня. Более того, за счёт своей структуры BDH может быть более интерпретируемой, чем трансформеры: легче понять, почему она приняла то или иное решение. Это открывает путь к созданию систем, которые будут адаптироваться и учиться в реальном времени, как это делают люди, а не проходить каждый раз долгий процесс переобучения.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Источник
Источник: habr.com