Целая семья грибников отравилась из-за советов книги, написанной ChatGPT

В Великобритании семья грибников оказалась в больнице после отравления ядовитыми грибами, собранными по рекомендациям книги, написанной с использованием ChatGPT.

Глава семейства рассказал, что ориентировался на иллюстрации и советы из книги, найденной на Amazon, которая, как выяснилось, содержала множество опасных ошибок.

Из-за широкого распространения книг, написанных нейросетями, возникла серьезная угроза для начинающих грибников.

Эти книги часто содержат недостоверную информацию, включая рекомендации «определять ядовитые грибы по вкусу и запаху», что может привести к тяжелым последствиям.

Журналисты The Guardian провели расследование и выяснили, что такие книги полностью состоят из текстов, сгенерированных ChatGPT, с неестественным литературным стилем, который не соответствует тематике.

В результате скандала, Amazon уже сняла с полок некоторые книги, вызвавшие беспокойство, однако проблема низкокачественной литературы, написанной нейросетями, остается актуальной.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
12542
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии