Что и как это работаетИнтерфейс Prompt Optimizer
OpenAI снова решила сделать за нас всю грязную работу — на этот раз под прицел попал сам процесс написания промптов.Зачем тратить время на формулировки, если можно просто сказать пару слов, а ИИ сам аккуратно оформит запрос, исправит косяки и подгонит всё под нужную модель?
Может написать промпт с нуля на основе минимального контекста.
Может отредактировать уже готовый промпт, улучшив стиль, структуру и точность.
Поддержка нескольких языков, включая русский.
Пишет промпты, в первую очередь под GPT-5, GPT-4.1, GPT o3.
Под какие модели рекомендуют оптимизировать пропмты
Вставляешь свой существующий пропмт или указываешь, какой пропмт хочешь получить, и тебе генерируется результат под твою задачу.
Зачем это нужно
Всё, что мне удалось сгенерировать с помощью нового инструмента OpenAI, было сделано исключительно в технике Zero-Shot prompting, без единого примера в промпте. Ни One-Shot, ни Few-Shot, ни Chain-of-Thought и других продвинутых подходов я там не встретил. Поэтому, на мой взгляд, этот сервис никак не заменяет хорошего промт-инженера. Он решает лишь часть задач: генерирует стартовые, базовые промпты или подсказывает, как слегка улучшить уже написанный. По сути, это похоже на то, что я и раньше делал с помощью любых LLM: писал лёгкий черновой промпт, а дальше — либо улучшал его сам, либо, если задача простая, оставлял как есть (например, системный промт для бота, который генерирует HTML-шаблоны писем для рассылки).
Плюс, удобно, что можно загрузить уже готовый промт, и сервис подсветит (по своему мнению) ошибки и места, которые можно улучшить. Но при этом всё остаётся на усмотрение пользователя: можно прочитать рекомендации, проверить их и только потом принять решение.
В документации OpenAI указано, что промпты можно выгружать по API. Вот это действительно может ускорить или упростить работу в некоторых сценариях. Например, если один и тот же промпт используется в нескольких задачах, и его нужно централизованно обновлять.
Выгрузка промпта по APIЗаключение
Для меня это не новый революционный инструмент, а просто чуть более быстрый способ сделать то, что я и так делал с базовыми LLM. Да, он заточен под написание промптов, и это ускоряет работу, но никаких «best practices» с применением продвинутых техник, вроде Few-Shot, я в его ответах не увидел — хотя внизу OpenAI и заявляет, что они используются.
Спасибо за прочтение новости, буду рад комментариям с вашим мнением и плюсиком в карму, если заслужил.
Источник: habr.com