Аналитический центр red_mad_robot рассказывает и комментирует главные новости индустрии за неделю с 1 по 7 декабря.
Google развивает память
Google DeepMind представила методы для развития памяти AI-агентов:
Evo-Memory преобразует датасеты в упорядоченные задачи. Агенты учатся извлекать, обновлять и переиспользовать знания. Подход объединяет более десяти унифицированных модулей памяти.
ExpRAG сохраняет каждое взаимодействие как структурированную запись и при необходимости извлекает релевантные эпизоды, подбирая похожие случаи.
ReMem добавляет агенту шаг обновления памяти: помимо рассуждений и действий, он может выбирать, какие записи сохранить, удалить или переписать.
Почему это важно: цель этих подходов — научить агентов не просто хранить информацию и статический контекст, а использовать накопленный опыт для улучшения собственных стратегий в процессе работы. Исследование приближает нас к эпохе непрерывно самоулучшающихся AI-агентов и закладывает новые принципы их проектирования.
Обновления от DeepSeek
DeepSeek выпустила две новые модели: V3.2 и V3.2-Speciale. Первая демонстрирует уровень рассуждений, сопоставимый с GPT-5.1, а вторая — обгоняет GPT-5 и приближается к Gemini-3.0-Pro, при этом оставаясь дешевле конкурентов.
Прорыв лаборатория объясняет тремя факторами: новой архитектурой Sparse Attention, масштабным RL-дообучением с модифицированным GRPO и реализацией Specialist Distillation, когда узкие модели обучаются отдельно и дистиллируются обратно в основную. Вклад также вносит сильное агентное обучение: сначала агенты учились сохранять качество reasoning при работе с инструментами, а затем осваивали различные навыки в 1800+ синтетических средах с использованием RL.
Источник: hi-tech.mail.ru