Эксперт назвал пять проблем, с которыми может столкнуться пользователь, если решит использовать ИИ для работы
Искусственный интеллект (ИИ) активно внедряется в бизнес, но с этим приходят и скрытые риски. Заместитель генерального директора IT-компании Articul Борис Кузьмин выделил пять ключевых опасностей, связанных с использованием ИИ.
1. Телесные повреждения из-за ошибок ИИ. Ошибки ИИ могут привести к травмам людей. Например, в 2023 году в США робот Tesla повредил человека, а в Южной Корее произошла трагедия, когда сотрудник погиб из-за сбоя в системе ИИ. Неправильное распознавание объектов и несоблюдение техники безопасности могут создать опасные ситуации, особенно в робототехнике.
2. Распространение дезинформации. ИИ иногда выдаёт неверные факты, что может подорвать доверие клиентов. Кузьмин привёл пример, когда научная статья была опубликована с ошибочной иллюстрацией, изображающей несуществующие анатомические детали. Такие ошибки могут сильно повредить репутации компании.
3. Финансовые потери из-за ошибок ИИ.Автоматизированные системы могут ошибаться, что приводит к убыткам. Кузьмин рассказал о продавце на Amazon, который потерял £300 тыс. из-за неверной работы системы, которая списала деньги за рекламу в регионе, где он не продавал товары. Это показывает, как важно внимательно следить за работой ИИ.
4. Утечка конфиденциальных данных. Использование ИИ может привести к утечке коммерческой тайны. Кузьмин отметил случай с Samsung, когда сотрудники вводили в GPT корпоративные данные. Это может создать серьёзные проблемы для компании и её клиентов.
5. Усиление предвзятости и дискриминации. Данные, используемые для обучения ИИ, могут содержать исторические предубеждения, что приводит к дискриминации. Например, в 2023 году iTutor Group была уличена в том, что её система отсеивала женщин старше 55 лет и мужчин старше 60 лет при найме. Это не только подорвало репутацию компании, но и обернулось финансовыми потерями в $365 тыс.
Чтобы минимизировать эти риски, Кузьмин посоветовал российским предпринимателям проводить регулярные инструктажи и обучение для сотрудников. Также важно чётко распределять ответственность, ведь системы не могут отвечать за безопасность людей. За это должны отвечать руководители и ответственные лица, подытожил он. Внедряя ИИ, важно помнить о потенциальных опасностях и работать над их устранением.
Источник: www.ferra.ru