Как язык влияет на наше восприятие ИИ: неожиданные выводы ученых

Как язык влияет на наше восприятие ИИ: неожиданные выводы ученых

«Мы постоянно используем те или иные слова в повседневной жизни, поэтому логично, что применяем их и к машинам — это помогает нам взаимодействовать с ними, — объясняет профессор английского языка из Университета штата Айова Джо Маккевич. — Но когда мы применяем к машинам ментальные глаголы, появляется значительный риск размыть границу между тем, на что способен человек, а на что — ИИ».

Маккевич и ее коллега Джинин Ауне провели необычное исследование, посвященное тому, как средства массовой информации описывают антропоморфными («человеческими») словами искусственный интеллект. Такой прием называется антропоморфизацией — приписыванием человеческих черт нечеловеческим системам.

Кому-то такая проблема может показаться надуманной — казалось бы, какая разница, какими словами описывается работа системы искусственного интеллекта? Но использование ментальных глаголов для описания ИИ может создавать ложное впечатление, из-за чего машины начинают казаться более человечными, чем они есть на самом деле.

Такие слова, как «думает», «знает», «понимает» и «хочет» предполагают, что система обладает собственными мыслями, намерениями или осознанностью. В реальности ИИ не имеет убеждений или чувств — он всего лишь генерирует ответы, анализируя паттерны в данных, а не формируя идеи или принимая осознанные решения. «Определенные антропоморфные фразы могут застревать в памяти читателей и потенциально формировать общественное восприятие ИИ нездоровым образом», — отмечает Ауне.

Чтобы понять, насколько часто в отношении ИИ используют антропоморфный язык, ученые проанализировали корпус News on the Web — массивный набор данных, который содержит более 20 миллиардов слов из англоязычных новостных статей, опубликованных в 20 странах. Они изучили, как часто ментальные глаголы, например, «учится», «означает» и «знает», использовались вместе с термином «ИИ» или конкретными названиями больших языковых моделей, в частности, «ChatGPT».

Оказалось, что журналисты периодически сочетают термины, связанные с ИИ, с ментальными глаголами, но происходит это, к счастью, не так часто. Среди выявленных примеров слово «нуждается» (needs) чаще всего встречалось с ИИ — 661 раз. Для ChatGPT наиболее частым было «знает» (knows), но оно появилось всего 32 раза. Иногда ментальные глаголы использовались не в антропоморфном контексте. Например, фраза «ИИ нуждается в больших объемах данных» описывает базовые требования, а не очеловечивает систему.

Ученые отметили, что определенную роль могут играть редакционные стандарты. Например, руководство Associated Press прямо не рекомендует сотрудникам приписывать ИИ человеческие эмоции или черты.

«В целом наш анализ показывает, что антропоморфизация ИИ в новостных текстах гораздо менее распространена, чем могло показаться на первый взгляд», — заключает Маккевич. Тем не менее, нам нужно всегда помнить, что выбор слов имеет значение: именно язык СМИ формирует то, как читатели понимают возможности ИИ и относятся к ним.

Ранее ученые выяснили, что люди превосходят лучшие модели ИИ в решении сложных задач.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии