Что формирует новую инфраструктуру AI. Нейроновости недели

Аналитический центр red_mad_robot рассказывает и комментирует главные новости индустрии за неделю с 1 по 7 декабря.

Google развивает память

Google DeepMind представила методы для развития памяти AI-агентов:

Evo-Memory преобразует датасеты в упорядоченные задачи. Агенты учатся извлекать, обновлять и переиспользовать знания. Подход объединяет более десяти унифицированных модулей памяти.

ExpRAG сохраняет каждое взаимодействие как структурированную запись и при необходимости извлекает релевантные эпизоды, подбирая похожие случаи.

ReMem добавляет агенту шаг обновления памяти: помимо рассуждений и действий, он может выбирать, какие записи сохранить, удалить или переписать.

Почему это важно: цель этих подходов — научить агентов не просто хранить информацию и статический контекст, а использовать накопленный опыт для улучшения собственных стратегий в процессе работы. Исследование приближает нас к эпохе непрерывно самоулучшающихся AI-агентов и закладывает новые принципы их проектирования.

Обновления от DeepSeek

DeepSeek выпустила две новые модели: V3.2 и V3.2-Speciale. Первая демонстрирует уровень рассуждений, сопоставимый с GPT-5.1, а вторая — обгоняет GPT-5 и приближается к Gemini-3.0-Pro, при этом оставаясь дешевле конкурентов.

Прорыв лаборатория объясняет тремя факторами: новой архитектурой Sparse Attention, масштабным RL-дообучением с модифицированным GRPO и реализацией Specialist Distillation, когда узкие модели обучаются отдельно и дистиллируются обратно в основную. Вклад также вносит сильное агентное обучение: сначала агенты учились сохранять качество reasoning при работе с инструментами, а затем осваивали различные навыки в 1800+ синтетических средах с использованием RL.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии