По мнению многих, длинные тире стали явной характерной особенностью текста, созданного с помощью искусственного интеллекта. Этот знак настолько часто встречается в ответах ChatGPT и других чат-ботов, что только по этому признаку уже можно определить сгенерированный текст. Судя по всему, это стало реальной проблемой, поскольку даже указания пользователя никак не влияли на использование длинных тире. Наконец, её решили — генеральный директор OpenAI Сэм Альтман сообщил, что ChatGPT теперь следует инструкциям в вопросе использования этого знака. Telegram-канал создателя Трешбокса про технологии «Небольшая, но радостная победа: если вы скажете ChatGPT не использовать длинные тире в пользовательских инструкциях, он наконец будет делать то, что должен!» — написал Сэм Альтман в X.
Эта новость вызвала неоднозначную реакцию пользователей, годами пытавшихся заставить чат-бота следовать указаниям. Отчасти из-за того, что самая дорогая в мире компания в области ИИ на протяжении многих лет не могла контролировать использование чат-ботом такой простой вещи. «Тот факт, что с момента запуска ChatGPT прошло три года, а вам только сейчас удалось заставить его придерживаться простого требования, многое говорит о том, насколько мало у вас контроля над ним и понимания его внутренних механизмов. Это нехороший знак для будущего», — написал один из пользователей X.
ИИ-модели предпочитают длинные тире, потому что их любят люди. Его зачастую используют писатели для выделения вводной информации, пояснения или указания на внезапное изменение мысли. Однако ещё до появления и популяризации ИИ в обществе начались дискуссии по поводу чрезмерного использования этого знака в современных текстах. Из-за того, что чат-боты начали злоупотреблять им, люди и различные инструменты распознавания стали воспринимать использование длинного тире как закономерность для ИИ, что создало проблему для тех авторов, которые предпочитают использовать длинное тире в своих работах. В результате появилась теория, что ИИ «убивает» длинное тире.
Никто точно не знает, почему ИИ склонны злоупотреблять длинными тире. Наиболее правдоподобное объяснение заключается в том, что запросы на генерацию текста в значительной степени соответствуют стилю, преобладающему в обучающих данных, где длинное тире часто встречается в официальных текстах, новостных статьях и редакционных материалах. Также возможно, что в процессе обучения с использованием обратной связи от человека ответы с длинным тире по какой-то причине получили более высокие оценки.
Несмотря на заявление Сэма Альтмана, реакция пользователей разная. Одни всё-таки добились от ChatGPT желаемого, другие — нет. OpenAI настроила последнюю версию GPT-5.1, чтобы она учитывала пользовательские инструкции в расчётах вероятностей. Учитывая вероятностный характер проблемы, нет гарантии, что она останется решённой. Компания непрерывно обновляет свои модели, корректируя выходные данные на основе отзывов пользователей. Каждое обновление имеет другие выходные характеристики, которые могут свести на нет предыдущие настройки поведения ИИ-модели.
Источник: trashbox.ru