Соучредитель Hugging Face: ИИ становится «подхалимом на серверах»

Соучредитель и главный научный сотрудник Hugging Face Томас Вольф выразил опасения, что искусственный интеллект станет «подхалимом на серверах», а не «страной Эйнштейнов, сидящих в центре обработки данных».

Он пояснил, что текущие парадигмы разработки ИИ не обеспечивают появления систем, способных к нестандартному и творческому решению проблем — достижениям, которые отмечаются Нобелевскими премиями.

«Главная ошибка, которую обычно совершают люди, заключается в том, что они думают, будто Ньютон или Эйнштейн были просто очень хорошими студентами, а гений оживает, когда вы линейно экстраполируете лучших 10% студентов. Чтобы создать Эйнштейна в центре обработки данных, нам нужна не просто система, которая знает все ответы, а скорее такая, которая может задавать вопросы, о которых никто другой не думал или не осмеливался задавать», — написал Вольф. 

Утверждения Вульфа контрастируют с позицией генерального директора OpenAI Сэма Альтмана, который в начале этого года заявил, что «сверхразумный» ИИ может «значительно ускорить научные открытия». По словам Альтмана, сочетание предварительной подготовки «гораздо большей модели» и её объединения с возможностями рассуждения может принести «первые крупицы или своего рода признаки жизни в области подлинно нового научного знания».

Аналогичным образом рассуждает генеральный директор Anthropic Дарио Амодеи, который считает, что ИИ может помочь в разработке лекарств от большинства видов рака. Он также выразил относительную уверенность в том, что технологии превзойдут человеческий интеллект в течение следующих двух-трёх лет.

Проблема, по мнению Вульфа, заключается в том, что нынешние системы ИИ не генерируют никаких новых знаний, связывая ранее не связанные между собой факты. Даже имея в своем распоряжении большую часть контента из интернета, искусственный интеллект в основном заполняет пробелы в уже существующих знаниях людей.

Некоторые эксперты в сфере ИИ, включая бывшего инженера Google Франсуа Шолле, придерживаются схожего мнения. Они считают, что, хотя ИИ способен запоминать шаблоны рассуждений, маловероятно, что он сможет генерировать «новые рассуждения» на основе новых ситуаций.

Вольф считает, что лаборатории ИИ создают «очень послушных учеников», а не революционеров в науке. Он отмечает, что системы искусственного интеллекта не мотивированы задавать вопросы и предлагать идеи, которые потенциально противоречат обучающим данным.

Эксперт уверен, что в этом отчасти виноват «кризис оценки» ИИ. Он указывает на контрольные показатели, обычно используемые для измерения улучшений таких систем, большинство из которых состоят из вопросов, имеющих чёткие и очевидные ответы.

В качестве решения Вольф предлагает отрасли ИИ «перейти к измерению знаний и рассуждений», которое способно показать, может ли система принимать «смелые контрфактуальные подходы», делать общие предложения, основанные на «крошечных намеках», и задавать «неочевидные вопросы», которые ведут к открытию «новых исследовательских путей».

«Самый важный аспект науки — это умение задавать правильные вопросы и подвергать сомнению даже то, что человек уже узнал. Нам не нужен студент с оценками A+, который может ответить на каждый вопрос с помощью общих знаний. Нам нужен студент с оценками B, который видит и подвергает сомнению то, что все остальные упустили», — заключил Вольф.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии