Названы причины, почему ИИ не пригоден для защиты от хакеров

Маккензи Джексон, исследователь кибербезопасности, в своей недавней статье для HackerNoon размышляет о преувеличенных заявлениях, сделанных об ИИ в своей сфере, и противопоставляет их реальным текущим возможностям ИИ. Хотя он, несомненно, добился значительных успехов в других областях, его влияние на кибербезопасность было «менее выраженным», считает эксперт.

Джексон отмечает, что многие разработчики в области «кибербеза» поспешили включить ИИ в свои продукты, часто используя те же рекомендации по устранению неполадок на основе ИИ и дополнительный контекст вокруг предупреждений. Однако эти реализации часто не приносили реальной пользы пользователям, поскольку они в основном направлены на сокращение рабочей нагрузки самих разработчиков и часто полагались на устаревшую информацию.

Одной из основных проблем эффективного внедрения ИИ в кибербезопасность является необходимость специализированных данных обучения. Хотя такие модели ИИ, как ChatGPT, впечатляют, отмечает Джексон, они не очень подходят для конкретных случаев использования. Обучение модели ИИ, ориентированной на безопасность, требует значительной вычислительной мощности, что делает его дорогостоящим начинанием для большинства организаций.

Джексон утверждает, что ИИ следует использовать для дополнения человеческих возможностей, а не для их замены. Хотя ИИ может быть ценным для таких задач, как классификация и приоритезация, важно использовать правильную модель ИИ и избегать чрезмерной зависимости от универсальных готовых решений.

В конечном счете, Джексон считает, что ИИ имеет потенциал оказать значительное влияние на кибербезопасность, но это потребует более целенаправленного и инновационного подхода.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
4384
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии