Operator наносит удар: как OpenAI ободит Google reCAPTCHA v3 (и что с этим делают в Proof-of-Human)

Помните старые добрые капчи с искаженными буквами? Потом были картинки с автобусами и светофорами. А потом Google представила reCAPTCHA v3 — почти невидимую защиту, которая тихо анализирует поведение пользователя: движения мыши, паттерны ввода, историю браузера. Казалось бы, идеальный щит против ботов?

Как бы не так: оказывается, даже эта продвинутая система оказалась уязвима перед новым поколением ИИ‑агентов, способных имитировать работу в реальном браузере. Взять хотя бы Operator от OpenAI — этот парень умеет автоматизировать сложные задачи прямо в браузере. И как показали тесты, он спокойно обходит reCAPTCHA v3. Смотрите сами:

Видео наглядно показывает: классические методы защиты трещат по швам. Так что же делать, куда смотреть разработчикам систем безопасности?

Ответ — в нас самих. Точнее, в наших уникальных поведенческих паттернах и когнитивных особенностях, которые ИИ пока что подделывает с трудом.

Поведение как ключ

Представьте: вы печатаете текст. Ваши пальцы пляшут по клавишам с разной скоростью, возникают паузы на раздумье, опечатки, исправления. График задержек между нажатиями клавиш у человека выглядит как неровный горный пейзаж с пиками (долгие паузы) и долинами (быстрые последовательности):

А теперь бот. Чаще всего он просто вставляет готовый текст. Если же он имитирует печать, то делает это с подозрительной, неестественной регулярностью. Задержки минимальны и предсказуемы, как метроном, не имеется пиков раздумий.

То же самое с мышью: человек двигает курсор по кривой траектории, делает мелкие корректировки при наведении, может промахнуться и вернуться. Бот же предпочитает идеально прямые линии или вовсе телепортирует курсор между точками. Посмотрите на графики движения и скорости:

Мозги вместо скорости

Но поведение — это только половина дела; второй фронт — когнитивные тесты, основанные на особенностях человеческого восприятия и мышления.

Классический пример — Струп‑тест. Вам показывают слово, скажем «синий», написанное красным цветом, и просят назвать цвет чернил, а не прочитать слово. У человека возникает когнитивный конфликт: мозг автоматически хочет прочитать слово, но нужно назвать цвет. Это вызывает задержку реакции. Бот же, лишенный таких внутренних противоречий, выдает ответ мгновенно и с одинаковой скоростью, независимо от соответствия цвета и слова.

Proof-of-Human: невидимая защита

Именно на этих двух китах — анализе поведенческих паттернов и использовании когнитивных особенностей — строится новый подход к обнаружению ИИ‑агентов, представленный в проекте Proof‑of‑Human компании Roundtable Technologies.

«Мы фокусируемся на поведенческом и когнитивном подходе для обнаружения ботов и кибербезопасности, — говорят разработчики Маянк Агравал и Мэтью Харди. — Вместо инвазивных для приватности методов, таких как биометрическое сканирование или отслеживание кукис, мы пытаемся обнаружить ботов создавая для ИИ‑агентов ресурсозатратные вызовы».

Суть в следующем: подделать сложные, контекстно‑зависимые паттерны человеческого поведения и реакции на когнитивные ловушки для ИИ пока что очень сложно — гораздо сложнее, чем просто вставить текст или кликнуть в нужном месте. Что создает экономический барьер для массового использования ИИ‑агентов в злонамеренных целях.

Итог

Битва между защитой и обходом продолжается, но подход Proof‑of‑Human, делающий ставку на саму природу человека, выглядит очень перспективным ответом на вызовы, которые бросают нам все более умные ИИ‑агенты. Будущее за невидимыми, ненавязчивыми, но при этом мощными системами аутентификации, основанными на том, что действительно сложно подделать.

🔔 Хочешь быть в курсе новостей? Подписывайся на телеграм: BotHub AI News.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии