OpenAI начала «угрожать» изучающим её последнюю ИИ-модель

Последнее семейство ИИ-моделей OpenAI, известное как «Strawberry», вызвало споры в технологическом сообществе: компания начала выдавать предупреждения пользователям, изучающим его внутреннюю работу.

Модели o1-preview и o1-mini, представленные на прошлой неделе, отличаются развитыми способностями к рассуждениям и пошаговым процессом решения проблем. Однако OpenAI решила скрыть цепочку мыслей, лежащую в основе этих моделей, представив лишь «отфильтрованную интерпретацию», пишут СМИ.

Энтузиасты и исследователи, стремящиеся раскрыть скрытые рассуждения, использовали методы «обмана» ИИ, чтобы он всё сам рассказал. Несмотря на первые успехи, OpenAI, как сообщается, пресекает эти попытки, отправляя предупреждающие электронные письма тем, кто пытается обойти защиту.

OpenAI объясняет это решение стремлением «сохранить конкурентные преимущества» и «улучшить пользовательский опыт», хотя критики утверждают, что это ограничивает прозрачность.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
181
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии