Анализ, проведённый Epoch AI, некоммерческим исследовательским институтом в области ИИ, показывает, что индустрия ИИ, возможно, не сможет добиться значительного повышения производительности моделей ИИ, основанных на рассуждениях, в течение длительного времени. Согласно результатам исследования, уже в течение года прогресс в области моделей, основанных на рассуждениях, может замедлиться.
Модели логического мышления, такие как o3 от OpenAI, в последние месяцы значительно улучшили результаты в тестах ИИ, особенно в тестах, измеряющих математические и программистские навыки. Модели могут применять больше вычислительных ресурсов для решения задач, что повышает их производительность, но при этом выполнение задач занимает больше времени, чем у обычных моделей.
Модели логического вывода разрабатываются путём сначала обучения обычной модели на огромном количестве данных, а затем применения метода, называемого обучением с подкреплением, который эффективно даёт модели «обратную связь» о её решениях сложных задач.
По данным Epoch, на данный момент передовые лаборатории ИИ, такие как OpenAI, не использовали огромное количество вычислительных мощностей на этапе обучения модели рассуждений с помощью подкрепления.
Ситуация меняется. Компания OpenAI заявила, что для обучения o3 она задействовала примерно в 10 раз больше вычислительных ресурсов, чем для обучения своего предшественника, o1, и Epoch предполагает, что большая часть этих вычислительных ресурсов была направлена на обучение с подкреплением. А исследователь OpenAI Дэн Робертс недавно сообщил, что в будущих планах компании обучение с подкреплением будет занимать гораздо больше вычислительных ресурсов, даже больше, чем при первоначальном обучении модели.
Но, согласно Epoch, существует верхний предел вычислительной мощности, которую можно использовать для обучения с подкреплением.
Согласно анализу Epoch AI, масштабирование модели обучения может замедлиться.
Джош Ю, аналитик Epoch и автор анализа, объясняет, что производительность стандартных моделей ИИ в настоящее время растёт в четыре раза каждый год, в то время как производительность обучения с подкреплением растёт в десять раз каждые 3–5 месяцев. Он предполагает, что к 2026 году прогресс в обучении мышлению «вероятно, сравняется с общим уровнем».
Анализ Epoch основан на ряде предположений и частично на публичных комментариях руководителей компаний, занимающихся искусственным интеллектом. Но это также доказывает, что масштабирование логических моделей может оказаться сложной задачей не только по вычислительным причинам, включая высокие накладные расходы на исследования.
«Если для исследования требуются постоянные накладные расходы, модели рассуждений могут масштабироваться не так хорошо, как ожидалось, — пишет Ю. — Быстрое масштабирование вычислений потенциально является очень важным фактором для развития моделей рассуждений, поэтому стоит внимательно следить за этим».
Любое указание на то, что в ближайшем будущем модели логического мышления могут достичь какого-то предела, скорее всего, обеспокоит индустрию ИИ, которая вложила огромные ресурсы в разработку таких моделей. Уже сейчас исследования показали, что модели логического мышления, которые могут быть невероятно дорогими в эксплуатации, имеют серьёзные недостатки, например, тенденцию чаще выдавать галлюцинации, чем некоторые традиционные модели.
Пользуясь случаем, рискуя кармой, хочу порекомендовать BotHub — платформу, где можно протестировать все популярные модели без ограничений. Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и уже сейчас начать работать!
Источник
Источник: habr.com