Весной этого года вышел нашумевший прогноз AI 2027 от группы исследователей во главе с Дэниелом Кокотайло — бывшим специалистом по ИИ-безопасности в OpenAI. Сценарий AI 2027 строится вокруг соревнования американской компании OpenBrain и китайской DeepCent за первенство в создании AGI. Из-за опасений, что соперник получит мощную технологию первым, обе компании максимально ускоряют разработку, жертвуя безопасностью. В оригинальном прогнозе первой до AGI добирается OpenBrain весной 2027 года, а осенью того же года наступает «поворотная точка» — последний шанс удержать разработанный AGI под контролем. Если это не удавалось, то в следующие несколько лет ИИ забирали контроль и уничтожали человечество (в сценарии есть и вариант сохранения контроля человечеством).
Однако на днях исследователи обновили свой прогноз: по оценке Кокотайло, AGI вероятнее всего появится в 2030 году (с небольшим шансом на 2028 год), а другие исследователи группы и вовсе откладывают это событие на 2035-40 годы. Дело в том, что свой прогноз авторы строили вокруг расчета максимальной длительности задачи по программированию, которую ИИ может выполнить автономно. Для реальных систем ИИ существует похожий бенчмарк METR, в котором на днях появился новый лидер — GPT-5.1 Codex с результатом 2 часа 42 минуты (указано время, за которое задачу выполнит средний опытный специалист-человек).
При комбинировании графиков видно, что результаты METR увеличиваются по экспоненте — время удваивается в среднем каждые 7 месяцев. При этом авторы AI 2027 строили суперэкспоненту, рассчитывая, что ИИ-агенты начнут серьезно ускорять разработку своих новых версий и в результате мощность моделей будет зависеть не только от расширения парка GPU, но и от совершенствования алгоритмов.
Один из соавторов AI 2027, Илай Лифлэнд, отмечает: несмотря на корректировку сроков, команда уверена в скором создании AGI, а затем — ASI. Обе технологии окажутся радикально преобразующими мир, а цель исследования AI 2027 — предупредить, что человечество может быть не готово к столь быстрым изменениям, и это может привести к серьезным последствиям, особенно в том случае, если безопасности ИИ не будут уделять должного внимания.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com