Группа математиков и исследователей ИИ представила подробную работу о том, как ИИ-ученый Google DeepMind AlphaEvolve помогает находить новые конструкции в математике; среди авторов — легенда математики Теренс Тао (UCLA), а также Богдан Георгиев и Адам Жолт Вагнер (Google DeepMind) и Хавьер Гомес-Серрано (Brown University/IAS). В статье описан единый конвейер: от машинного поиска идей до доказательств и формализации результатов.
AlphaEvolve — ИИ-агент Google DeepMind, публично анонсированный в мае 2025 года. Это сложная система, в которой нейросети сочетаются с жесткими автоматическими «оценщиками», что позволяет ей вести научные задачи. В Google AlphaEvolve применяют к разным инженерным задачам — от ускорения матричных вычислений и планирования ресурсов дата-центров до улучшения TPU-ускорителей. Идея в том, что система выводит новые алгоритмические приемы, которые проходят автоматическую проверку и дают выигрыши в производительности. Сразу после анонса Google сообщила о намерении открыть доступ к AlphaEvolve для ученых — одним из первых результатов этого стала работа команды Тао.
Авторы запускали AlphaEvolve на десятках задач — в анализе, комбинаторике, геометрии и теории чисел — в двух режимах. В search-mode система пишет и улучшает небольшие программы-поисковики: те быстро перебирают варианты, строгая проверка оценивает результат, лучшие решения сохраняются и «мутируют». В generalizer-mode создаётся и доводится программа-генератор, которая работает сразу на множестве входов, выявляет закономерность и подсказывает общую формулу. Для некоторых задач также подключали другие ИИ-инструменты Google: Gemini 2.5 Deep Think для выведения доказательства и AlphaProof для перевода доказательства в формально проверяемый код на Lean.
Математики в этой работе формулировали задачи, стартовые промпты и метрики решений, следили за работой системы, вмешиваясь, когда ИИ заносило «не туда», и валидировали результаты. В статье перечисляются следующие реальные достижения: улучшения для задач над конечными полями (варианты Kakeya/Nikodym), усиление отдельных автокорреляционных оценок и повышение нижней границы для конфигурации «целующихся сфер» в размерности 11 (593 вместо 592) — это показывает диапазон, где эволюция программ действительно находит «рабочие» конструкции. Авторы считают, что ценность работы не в одной громкой теореме, а в универсальности, которая позволяет использовать Alpha Evolve для разных математических задач.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com