Google в ненормальных ответах своего ИИ обвинила пользователей

Google в своём блоге прокомментировала ошибочные и опасные ответы своей нейросети Gemini. Ответственность за это разработчики переложили на пользователей.

Для обучения Gemini Google использует информацию из контента на сайтах, из поисковой выдачи. Технология AI Overview, которая и формирует ответы, не была достаточно обучена для бесперебойной выдачи релевантных ответов. К тому же Gemini не распознаёт иронию.

По этой причине пользователи и получали странные и дурацкие ответы, так как нейросеть искала данные, в том числе на сайтах с сатирой. Тем не менее в Google считают, что, несмотря на действительно абсурдные под час советы, скриншоты со многими по-настоящему опасными ответами были сфабрикованы. По логике разработчиков, Gemini не могла посоветовать оставлять в машине собаку или доказывать пользу курения во время беременности.

Поэтому в Google считают, что ажиотаж вокруг ошибок Gemini был создан искусственно. Но всё же разработчики нейросети внедрили «фильтры» для распознавания контекста бессмысленных запросов, на которые заведомо невозможно дать ответ, сатиры и иронии.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии