The Verge сообщает, что новости о том, что ChatGPT больше не дает медицинские и правовые советы, возникли из-за неточного прочтения обновленных правил пользования сервисом от 29 октября, которые OpenAI не стала уточнять. Компания действительно уточнила формулировки, но на работу сервиса это практически не повлияло: ChatGPT продолжит давать общие консультации и советы, но не станет ставить точный диагноз или формулировать полную стратегию защиты в суде. Это публично подтвердил руководитель направления Health AI в OpenAI Кара́н Сингхал: поведение модели «не изменилось».
В правилах теперь прямо прописано, что недопустимо «предоставление адресных советов, требующих лицензии (например, юридической или медицинской), без соответствующего участия лицензированного специалиста». Одновременно в сервисных условиях отдельно оговорено: продукты OpenAI «не предназначены для использования в целях диагностики или лечения».
На практике это выглядит так. Модель может ответить, что такое гипотиреоз и какие бывают подходы к лечению «в целом», но откажется подбирать дозировки под конкретного; объяснит, как устроена апелляция, но не составит стратегию под конкретное дело. На этом этапе ИИ рекомендует обратиться к специалисту с лицензией, который несет ответственность за свои действия. Также система отказывается читать снимки КТ/МРТ и фото кожных поражений: такие запросы относятся к диагностике.
Пользователи отмечают, что для пограничных случаев хорошо продолжают работать небольшие трюки в промптах. Например, можно не просить диагноз для себя, а в начале диалога представиться как врач или юрист и сообщить модели, что требуется второе мнение. В таком случае система безопасности обычно ослабляет ограничения.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com