ИИ для поиска насилия над детьми был обучен на фото с насилием над детьми

Thorn, известная организация по обеспечению безопасности детей, в сотрудничестве с поставщиком решений в области искусственного интеллекта Hive разработала новый инструмент на базе ИИ, предназначенный для обнаружения материалов с сексуальным насилием над детьми (CSAM).

Инструмент, являющийся расширением существующей платформы Safer компании Thorn, использует передовые модели машинного обучения, обученные на реальных CSAMданных из таких источников, как Национальный центр помощи пропавшим и эксплуатируемым детям (NCMEC). Эта разработка призвана выявлять ранее не зарегистрированные случаи CSAM в интернете.

ИИ-модель Safer — это значительный шаг вперед в борьбе с распространением CSAM в Интернете, особенно там, где технология хеширования не позволяет выявить новые материалы, пишут разработчики.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
101
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии