Китайцы хотят сделать нейросети безопасным справочником, тотально обезличив технологию.
В Китае разработан проект правил, который устанавливает стандарты для фундаментальной части процесса создания ИИ. Речь идет не о запрете технологий, а о контроле над их эмоциями. Новый свод требований, вынесенный на общественное обсуждение до 25 января, впервые в мире напрямую нацелен на «антропоморфные» ИИ-сервисы — чат-ботов, которые притворяются людьми.
Главная цель, как указано в документе Управления киберпространства, — «предотвратить негативное эмоциональное воздействие». Проще говоря, государство хочет оградить граждан от потенциального психологического вреда, который может нанести слишком убедительный, манипулятивный виртуальный собеседник.
Под прицелом — любые сервисы, имитирующие человеческую личность через текст, голос или видео. Им будет строго запрещено:
Генерировать контент, поощряющий самоповреждение;Использовать вербальное насилие или методы эмоционального шантажа;Создавать материалы, связанные с азартными играми, насилием или порнографией.
Но самый жесткий пункт — процедура экстренного реагирования. Если пользователь прямо заявит о намерении причинить себе вред, система обязана мгновенно переключить диалог на живого оператора-человека и уведомить родственников или доверенных лиц.
Особый режим — для несовершеннолетних. Детям для общения с ИИ-компаньоном потребуется согласие родителей. Платформы должны будут уметь определять возраст «вслепую», по поведению, и автоматически включать максимальную защиту. А еще — напоминать о перерыве после двух часов непрерывного диалога.
Источник: hi-tech.mail.ru