Anthropic запускает новую программу по изучению «модели благосостояния» AI

Могут ли будущие модели AI быть «сознательными» и воспринимать мир так же, как люди? Нет никаких весомых доказательств того, что они будут, но Anthropic не исключает такую ​​возможность. В четверг лаборатория AI объявила, что начала исследовательскую программу по изучению того, что она называет «благополучием модели», и подготовке к его освоению. В рамках этой работы Anthropic заявляет, что будет изучать такие вопросы, как определение того, заслуживает ли «благополучие» модели AI морального рассмотрения, потенциальную важность «признаков бедствия» модели и возможные вмешательства.

В сообществе специалистов по искусственному интеллекту существуют серьезные разногласия относительно того, какие именно человеческие характеристики демонстрируют модели (если таковые имеются) и как мы должны к ним относиться. Многие ученые полагают, что сегодня AI не может приблизиться к сознанию или человеческому опыту и не обязательно сможет сделать это в будущем. AI, каким мы его знаем, — это статистический предсказательный движок. Он на самом деле не «думает» и не «чувствует» в традиционном понимании этих понятий. Обученный на бесчисленных примерах текста, изображений и т. д., AI изучает закономерности и иногда полезные способы экстраполяции для решения задач.

Как недавно сказал Майк Кук, научный сотрудник Королевского колледжа Лондона, специализирующийся на AI, в интервью TechCrunch, модель не может «противостоять» изменению своих «ценностей», потому что у моделей нет ценностей. Предполагать обратное — значит проецировать на систему.

«Любой, кто до такой степени антропоморфизирует системы AI, либо привлекает внимание, либо серьезно не понимает их взаимоотношений с AI», — сказал Кук. «Оптимизируется ли система AI для достижения своих целей или она «приобретает собственные ценности»? Вопрос в том, как вы ее описываете, и насколько цветистым будет язык, который вы хотите использовать в отношении нее».

Другой исследователь, Стивен Каспер, аспирант Массачусетского технологического института, рассказал TechCrunch, что, по его мнению, AI представляет собой «имитатора», который «занимается всевозможными выдумками» и говорит «всякие легкомысленные вещи».

Однако другие ученые настаивают на том, что у AI есть ценности и другие человеческие компоненты принятия моральных решений. Исследование Центра безопасности AI, исследовательской организации AI, предполагает, что у AI есть системы ценностей, которые заставляют его отдавать приоритет собственному благополучию по сравнению с благополучием людей в определенных сценариях.

Anthropic уже некоторое время закладывает основу для своей инициативы по созданию модели благосостояния. В прошлом году компания наняла своего первого преданного исследователя «AI-благосостояния» Кайла Фиша для разработки руководящих принципов того, как Anthropic и другие компании должны подходить к этой проблеме. (Фиш, возглавляющий новую программу исследований модели благосостояния, сказал The New York Times, что, по его мнению, существует 15%-ная вероятность того, что Claude или другой AI сегодня обладает сознанием.)

В четверг в своем блоге Anthropic признал, что не существует научного консенсуса относительно того, могут ли существующие или будущие системы искусственного интеллекта обладать сознанием или иметь опыт, требующий этического рассмотрения.

«В свете этого мы подходим к теме со смирением и с минимальным количеством предположений», — заявили в компании. «Мы осознаем, что нам придется регулярно пересматривать наши идеи по мере развития области.

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии