Thorn, известная организация по обеспечению безопасности детей, в сотрудничестве с поставщиком решений в области искусственного интеллекта Hive разработала новый инструмент на базе ИИ, предназначенный для обнаружения материалов с сексуальным насилием над детьми (CSAM).
Инструмент, являющийся расширением существующей платформы Safer компании Thorn, использует передовые модели машинного обучения, обученные на реальных CSAMданных из таких источников, как Национальный центр помощи пропавшим и эксплуатируемым детям (NCMEC). Эта разработка призвана выявлять ранее не зарегистрированные случаи CSAM в интернете.
ИИ-модель Safer — это значительный шаг вперед в борьбе с распространением CSAM в Интернете, особенно там, где технология хеширования не позволяет выявить новые материалы, пишут разработчики.
Источник: www.ferra.ru