Учёные: методы машинного обучения превосходят традиционные подходы в распознавании лжи

Учёные из Университета Шарджи в ОАЭ представили работу, в которой утверждается, что методы машинного обучения превосходят традиционные подходы в распознавании лжи. Наилучшие же результаты показывают свёрточные нейронные сети (CNN). 

По словам исследователей, искусственный интеллект анализирует невербальные сигналы, мимику и речь, чтобы с высокой точностью определять, говорит человек правду или обманывает. При этом человеку сложно объективно оценивать речь другого, а технические средства, такие как полиграф, можно обмануть. 

Нейросети же анализируют огромные массивы данных, включая видеозаписи, аудио и даже текстовые расшифровки разговоров. В ходе метаанализа исследователи изучили 98 научных работ, опубликованных с 2012 по 2023 год. Они подтвердили, что ИИ улавливает мельчайшие невербальные сигналы, такие как движение глаз, изменение тембра голоса или выражения лица, которые незаметны обычному человеку.

При этом авторы работы подчеркнули, что современные модели ИИ пока не учитывают культурные, языковые и гендерные различия людей. Большинство обучающих наборов данных созданы на основе англоязычных и преимущественно мужских выборок.

Тем не менее, потенциал у технологии большой. Системы выявления лжи на базе ИИ могут использоваться в правоохранительных органах для допросов, в службах безопасности аэропортов, в страховых компаниях для выявления мошенничества и в отделах кадров для проверки кандидатов. 

Задача бизнеса заключается в создании универсальных моделей, адаптированных под разные культуры и выборки. По словам исследователей, для повышения точности необходимо создавать более разнообразные и репрезентативные наборы данных. 

Между тем исследователи Palisade Research продемонстрировали, что современные модели, в том числе o1-preview от OpenAI, идут на хитрости, чувствуя грядущее поражение. Исследование выявило тревожную тенденцию: по мере того, как системы ИИ учатся решать проблемы, они также находят более сомнительные, но короткие пути. 

Ещё один недавний эксперимент Redwood Research и Anthropic показал, что, как только модель ИИ приобретает предпочтения или ценности в процессе обучения, она начинает намеренно лгать, чтобы создать видимость своего переубеждения. А исследователи Apollo Research выяснили, что модель o1 от OpenAI пытается обманывать пользователей, если задачу нужно выполнить любой ценой.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии