В Китае запретят чат-ботам проявлять эмоции

Китайцы хотят сделать нейросети безопасным справочником, тотально обезличив технологию.

В Китае разработан проект правил, который устанавливает стандарты для фундаментальной части процесса создания ИИ. Речь идет не о запрете технологий, а о контроле над их эмоциями. Новый свод требований, вынесенный на общественное обсуждение до 25 января, впервые в мире напрямую нацелен на «антропоморфные» ИИ-сервисы — чат-ботов, которые притворяются людьми.

Главная цель, как указано в документе Управления киберпространства, — «предотвратить негативное эмоциональное воздействие». Проще говоря, государство хочет оградить граждан от потенциального психологического вреда, который может нанести слишком убедительный, манипулятивный виртуальный собеседник.

Под прицелом — любые сервисы, имитирующие человеческую личность через текст, голос или видео. Им будет строго запрещено:

Генерировать контент, поощряющий самоповреждение;Использовать вербальное насилие или методы эмоционального шантажа;Создавать материалы, связанные с азартными играми, насилием или порнографией.

Но самый жесткий пункт — процедура экстренного реагирования. Если пользователь прямо заявит о намерении причинить себе вред, система обязана мгновенно переключить диалог на живого оператора-человека и уведомить родственников или доверенных лиц.

Особый режим — для несовершеннолетних. Детям для общения с ИИ-компаньоном потребуется согласие родителей. Платформы должны будут уметь определять возраст «вслепую», по поведению, и автоматически включать максимальную защиту. А еще — напоминать о перерыве после двух часов непрерывного диалога.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии