Разногласия в ИИ-сообществе: критика ЛеКуна в адрес Дарио Амодеи

Ян ЛеКун, главный научный сотрудник Meta* в области ИИ, напрямую раскритиковал генерального директора Anthropic Дарио Амодеи в Threads, показав, насколько сильно сообщество ИИ расходится во мнениях о будущем общего искусственного интеллекта.

Когда пользователь Threads спросил, является ли Амодеи «ИИ-злодеем», «ИИ-супергероем» или и тем, и другим, ЛеКун не стал сдерживаться: «Он злодей, но продолжает работать над AGI». ЛеКун утверждал, что этому есть только два возможных объяснения: «Он интеллектуально нечестен и/или морально испорчен».

В качестве альтернативы ЛеКун предположил, что Амодеи может страдать от «огромного комплекса превосходства», считая, что «только он достаточно просвещён, чтобы иметь доступ к ИИ, а необразованные массы слишком глупы или аморальны, чтобы использовать такой мощный инструмент». По мнению ЛеКуна, Амодеи «заблуждается относительно опасностей и возможностей современных систем ИИ».

Лекюнь публично критикует генерального директора Anthropic Дарио Амодейя в Threads, обвиняя его в моральной непорядочности за стремление к созданию сверхразумного ИИ, в то время как он предупреждает о рисках, связанных с ИИ. Фундаментальные разногласия по поводу будущего ИИ

Высказывания ЛеКуна проливают свет на гораздо более глубокие дебаты о направлении исследований в области ИИ. Такие компании, как Anthropic и OpenAI, стремятся коммерциализировать всё более мощные большие языковые модели (LLM), часто предупреждая, что эти системы могут представлять экзистенциальную угрозу для человечества. ЛеКун считает, что этот нарратив — и акцент на самих LLM — ошибочен, если цель состоит в том, чтобы достичь подлинного интеллекта человеческого уровня.

Он отмечает, что большие языковые модели, такие как GPT-X или Claude, имеют значительные ограничения. По словам ЛеКуна, эти модели испытывают трудности с базовой логикой, им не хватает понимания реального мира, и они не могут сохранять информацию в долгосрочной перспективе. Он утверждает, что они не способны к рациональному мышлению или сложному планированию и в конечном счёте на них нельзя полагаться, поскольку они дают убедительные ответы только тогда, когда их обучающие данные охватывают тему.

«Если вы студент, заинтересованный в создании систем ИИ следующего поколения, не работайте над LLM», — сказал ЛеКун год назад. Он считает, что в этой области уже доминируют крупные компании и что LLM — это не путь к настоящему интеллекту.

Вместо этого ЛеКун и его команда в Meta сосредоточились на «моделях мира» — системах ИИ, предназначенных для формирования подлинного понимания окружающей среды. В недавнем исследовании исследователи из Meta представили V-JEPA — модель ИИ, которая обучается интуитивному физическому мышлению на основе видео с помощью самоконтролируемого обучения. По сравнению с мультимодальными LLM, такими как Gemini или Qwen, V-JEPA продемонстрировала гораздо более глубокое понимание физики, несмотря на то, что ей требовалось гораздо меньше обучающих данных.

Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.

*Meta и её продукты (Instagram, Facebook) запрещены на территории Российской Федерации

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии