Оптимизатор промптов под GPT-5

Что и как это работаетИнтерфейс Prompt Optimizer

OpenAI снова решила сделать за нас всю грязную работу — на этот раз под прицел попал сам процесс написания промптов.Зачем тратить время на формулировки, если можно просто сказать пару слов, а ИИ сам аккуратно оформит запрос, исправит косяки и подгонит всё под нужную модель?

Может написать промпт с нуля на основе минимального контекста.

Может отредактировать уже готовый промпт, улучшив стиль, структуру и точность.

Поддержка нескольких языков, включая русский.

Пишет промпты, в первую очередь под GPT-5, GPT-4.1, GPT o3.

Под какие модели рекомендуют оптимизировать пропмты

Вставляешь свой существующий пропмт или указываешь, какой пропмт хочешь получить, и тебе генерируется результат под твою задачу.

Зачем это нужно

Всё, что мне удалось сгенерировать с помощью нового инструмента OpenAI, было сделано исключительно в технике Zero-Shot prompting, без единого примера в промпте. Ни One-Shot, ни Few-Shot, ни Chain-of-Thought и других продвинутых подходов я там не встретил. Поэтому, на мой взгляд, этот сервис никак не заменяет хорошего промт-инженера. Он решает лишь часть задач: генерирует стартовые, базовые промпты или подсказывает, как слегка улучшить уже написанный. По сути, это похоже на то, что я и раньше делал с помощью любых LLM: писал лёгкий черновой промпт, а дальше — либо улучшал его сам, либо, если задача простая, оставлял как есть (например, системный промт для бота, который генерирует HTML-шаблоны писем для рассылки).

Плюс, удобно, что можно загрузить уже готовый промт, и сервис подсветит (по своему мнению) ошибки и места, которые можно улучшить. Но при этом всё остаётся на усмотрение пользователя: можно прочитать рекомендации, проверить их и только потом принять решение.

В документации OpenAI указано, что промпты можно выгружать по API. Вот это действительно может ускорить или упростить работу в некоторых сценариях. Например, если один и тот же промпт используется в нескольких задачах, и его нужно централизованно обновлять.

Выгрузка промпта по APIЗаключение

Для меня это не новый революционный инструмент, а просто чуть более быстрый способ сделать то, что я и так делал с базовыми LLM. Да, он заточен под написание промптов, и это ускоряет работу, но никаких «best practices» с применением продвинутых техник, вроде Few-Shot, я в его ответах не увидел — хотя внизу OpenAI и заявляет, что они используются.

Спасибо за прочтение новости, буду рад комментариям с вашим мнением и плюсиком в карму, если заслужил.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии