«Она читает ваши мысли»: OpenAI представила революционную модель GPT-4o

Самая популярная модель генеративного ИИ получила долгожданное обновление: новая система, получившая название GPT-4o, теперь на лету обрабатывает не только текст и изображения, но и звук. Бесплатно попробовать новинку можно будет уже в ближайшее время – тестирование не потребует подписки ChatGPT Plus。

По всей видимости, OpenAI решила повременить с выпуском GPT-5, которую так ждали фанаты. Вместо этого разработчики анонсировали улучшенную версию GPT-4 с приставкой «омни» (лат. «все, весь») — ее планируется интегрировать во все продукты компании в течение ближайших нескольких недель.

Несмотря на то, что OpenAI не позиционирует GPT-4o в качестве модели следующего поколения, у новинки определенно есть чем удивить пользователей.

Полностью соответствуя своему названию, «омни» отличается от прошлых поколений полной мультимодальностью: GPT-4o была обучена на разнообразных наборах данных, включающих изображения, текст и звук. Благодаря этому опыт взаимодействия с ИИ становится более естественным, а скорость работы системы по сравнению с GPT-4 Turbo была увеличена более чем в два раза.

Примечательно, что GPT-4o отвечает на запросы пользователя практически моментально, без задержек — это происходит даже в тех случаях, когда модель работает с несколькими потоками данных, например, анализируя изображение с камеры и параллельно «слушая» голосовой запрос пользователя. OpenAI заявляет, что GPT-4o также сможет анализировать эмоциональный фон пользователя, адаптируя свои ответы под его настроение и стиль общения.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии