После провала Llama-4, в Meta* обсуждают использование ИИ от OpenAI и Google

Reuters со ссылкой на The Information сообщает, что топ-менеджеры Meta* (компания признана экстремистской в России) обсуждают использование моделей от OpenAI и Google как временную меру для усиления ответов в Meta AI и других ИИ-сервисах компании. Это решение планируется как временное для сокращения отставания компании в области искусственного интеллекта: сейчас Meta AI работает на линейке моделей Llama-4, которые признаны неудачными.

Представитель Meta* подтвердил информацию издания: «Мы используем подход “все сразу”, чтобы создавать лучшие продукты на базе ИИ; это включает в себя разработку собственных передовых моделей, партнерство с другими компаниями, а также открытый исходный код технологий».

Также источники The Information сообщили, что Meta* уже использует Claude AI от Anthropic. Эту модель можно выбрать в корпоративном инструменте для программирования. Стоит отметить, что правила использования Claude запрещают с его помощью создавать конкурирующие ИИ-модели, но, возможно, модель используется для разработки прочих сервисов Meta*.

Llama-4 вышла 5 апреля 2025 в версиях Scout и Maverick, которые хорошо показали себя в бенчмарках. Но пользователи сразу же стали отмечать, что производительность в реальных задачах хуже, чем заявлялась компанией — это породило подозрения, что модели специально «настроили» под результаты в бенчмарках. В Meta* возможность манипуляций отвергли, но за выходом Llama-4 последовали значительные перестановки в ИИ-подразделении компании, а также попытки переманить сотрудников у конкурентов за огромные деньги — ведущим специалистам предлагали сотни миллионов долларов за переход. Сейчас компания разрабатывает Llama-5, выход которой, по некоторым данным, намечен на конец года.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии