Все ошибаются — даже нейросети. Но это не повод их не использовать. Собрали самые странные и смешные факапы зарубежных и российских генеративных нейронок.
Мы привыкли читать новости о том, как искусственный интеллект и нейросети меняют мир: пересказывают длинные видео, помогают жарить стейки или работают на телевидении. Но даже у самых продвинутых нейросетей случаются факапы.
Иногда факапы выглядят безобидно — когда нейросеть рисует шесть пальцев на руке или придумывает несмешную шутку. Риски возникают, когда искусственный интеллект выдает ложный ответ за истинный.
Языковые модели, которые лежат в основе нейросетей, несовершенны и могут выдавать «галлюцинации» из-за недостаточности данных. Например, в 2022 году из-за ошибки ИИ российских водителей праворульных машин автоматически штрафовали за непристегнутый ремень. Вторая проблема — недостаточно точный промптинг. Если пользователь напишет нейросети абстрактный и короткий запрос без деталей и контекста, то получит слабый результат, примерно как на картинках ниже.
Источник: hi-tech.mail.ru