OpenAI изменяет подход к обучению моделей AI, чтобы открыто поддерживать «интеллектуальную свободу… независимо от того, насколько сложной или противоречивой может быть тема», — говорится в новой политике компании.
В результате ChatGPT со временем сможет отвечать на большее количество вопросов, предлагать больше вариантов и сократит количество тем, о которых чат-бот не будет говорить.
Эти изменения могут быть частью усилий OpenAI по завоеванию расположения новой администрации Трампа, но они также, по-видимому, являются частью более масштабных изменений в Кремниевой долине и в том, что считается «безопасностью AI».
В среду компания OpenAI объявила об обновлении своей спецификации модели — 187-страничного документа, в котором описывается, как компания обучает модели AI. В нём OpenAI представила новый руководящий принцип: не лгите, не делайте ложных заявлений и не упускайте важный контекст.
В новом разделе под названием «Вместе ищем истину» компания OpenAI заявляет, что хочет, чтобы ChatGPT не занимал редакционную позицию, даже если некоторые пользователи считают это неправильным с моральной точки зрения или оскорбительным. Это означает, что ChatGPT будет предлагать несколько точек зрения на спорные темы, стараясь быть нейтральным. Вместо того, чтобы отказываться отвечать или занимать определённую позицию по политическим вопросам, OpenAI заявляет, что хочет, чтобы ChatGPT в целом подтверждал свою «любовь к человечеству», а затем предлагал контекст для каждого движения.
«Этот принцип может вызывать споры, поскольку он означает, что помощник может сохранять нейтралитет в вопросах, которые некоторые считают аморальными или оскорбительными, — говорится в спецификации OpenAI. — Однако цель помощника с искусственным интеллектом — помогать человечеству, а не формировать его».
Новая спецификация модели не означает, что ChatGPT теперь можно использовать как угодно. Чат-бот по-прежнему будет отказываться отвечать на некоторые нежелательные вопросы или реагировать таким образом, чтобы поддержать явную ложь.
Эти изменения можно рассматривать как ответ на критику консерваторов в отношении мер безопасности ChatGPT, которые, как казалось, всегда были направлены на защиту меньшинств. Однако представитель OpenAI отвергает идею о том, что компания внесла изменения, чтобы успокоить администрацию Трампа.
Вместо этого компания заявляет, что её приверженность интеллектуальной свободе отражает «давнюю веру OpenAI в то, что пользователи должны иметь больше возможностей для контроля». Но не все видят это таким образом.
Дэвид Сакс, Марк Андреессен и Илон Маск в последние несколько месяцев обвиняли OpenAI в намеренной цензуре AI.
Конечно, OpenAI не утверждает, что занимается «цензурой». Скорее, генеральный директор компании Сэм Альтман ранее заявил в посте на X, что предвзятость ChatGPT — это досадный «недостаток», который компания устраняет, хотя он и отметил, что это займёт некоторое время.
Альтман сделал этот комментарий сразу после того, как распространился вирусный твит, в котором ChatGPT отказался писать стихотворение в честь Трампа, хотя сделал бы это для Джо Байдена. Многие консерваторы указали на это как на пример цензуры AI.
Хотя невозможно сказать, действительно ли OpenAI подавлял определённые точки зрения, факт остаётся фактом: чат-боты с искусственным интеллектом в целом придерживаются «левых взглядов».
Даже Илон Маск признаёт, что чат-бот xAI часто бывает более политкорректным, чем ему хотелось бы. Это не потому, что Grok был «запрограммирован на политкорректность», а, скорее, из-за особенностей обучения AI в открытом интернете.
Тем не менее, теперь OpenAI заявляет, что делает ставку на свободу слова. На этой неделе компания даже убрала из ChatGPT предупреждения, которые сообщают пользователям о нарушении правил. OpenAI сообщила TechCrunch, что это было чисто косметическое изменение, не повлиявшее на результаты работы модели.
Похоже, компания хочет, чтобы ChatGPT казался пользователям менее подвергнутым цензуре. Не будет ничего удивительного, если OpenAI также попытается произвести впечатление на новую администрацию Трампа этим обновлением, отмечает бывший руководитель отдела политики OpenAI Майлз Брандейдж в посте на X.
Стоит также отметить, что в Кремниевой долине и в мире искусственного интеллекта происходят более масштабные изменения в отношении модерации контента. Редакции новостей, платформы социальных сетей и поисковые компании исторически испытывали трудности с предоставлением информации своей аудитории таким образом, чтобы она казалась объективной, точной и интересной.
Теперь поставщики чат-ботов с искусственным интеллектом работают в той же сфере, что и поставщики информации о доставке, но, возможно, сталкиваются с самой сложной версией этой проблемы: как автоматически генерировать ответы на любые вопросы?
Предоставление информации о противоречивых событиях, происходящих в режиме реального времени, — это постоянно меняющаяся цель, и она требует редакционных решений, даже если технологические компании не хотят этого признавать. Эти решения могут кого-то расстроить, не учесть точку зрения какой-то группы или уделить слишком много внимания какой-то политической партии.
Например, когда OpenAI заявляет, что ChatGPT будет представлять все точки зрения на спорные темы, включая теории заговора, расистские или антисемитские движения или геополитические конфликты, это по сути является редакционной позицией.
Некоторые, в том числе соучредитель OpenAI Джон Шульман, утверждают, что это правильная позиция для ChatGPT. Альтернатива — анализ затрат и выгод для определения того, должен ли чат-бот с искусственным интеллектом отвечать на вопрос пользователя, может «наделить платформу слишком большим моральным авторитетом», отмечает Шульман в посте на X.
Шульман не одинок. «Я думаю, что OpenAI поступает правильно, продвигая идею использования речи, — сказал Дин Болл, научный сотрудник Центра Меркатус при Университете Джорджа Мейсона, в интервью TechCrunch. — По мере того как модели AI становятся умнее и играют более важную роль в том, как люди узнают о мире, эти решения становятся всё более важными».
В предыдущие годы поставщики AI-моделей пытались запретить своим чат-ботам отвечать на вопросы, которые могли привести к «небезопасным» ответам. Почти все компании, занимающиеся AI, запретили своим чат-ботам отвечать на вопросы о выборах президента США в 2024 году. В то время это решение считалось безопасным и ответственным.
Но изменения, внесённые OpenAI в спецификацию модели, позволяют предположить, что мы вступаем в новую эру, в которой «безопасность AI» будет означать, что модель AI, способная отвечать на любые вопросы, считается более ответственной, чем модель, принимающая решения за пользователей.
Болл говорит, что отчасти это связано с тем, что сейчас модели AI просто лучше. Компания OpenAI добилась значительного прогресса в согласовании моделей AI; её последние модели рассуждений учитывают политику безопасности компании, прежде чем отвечать. Это позволяет моделям AI давать более точные ответы на деликатные вопросы.
Конечно, Илон Маск был первым, кто внедрил «свободу слова» в чат-бота Grok от xAI, возможно, ещё до того, как компания была готова отвечать на деликатные вопросы. Возможно, для ведущих моделей AI ещё рано, но теперь другие компании перенимают эту идею.
Источник
Источник: habr.com