DBRX, разработанная компанией Databricks, обладает уникальными способностями. Рассказываем, что в ней такого особенного, и, почему конкурентным площадкам стоит начать немного беспокоиться.
Стартап Databricks только что выпустил DBRX, самую мощную модель большого языка с открытым исходным кодом, затмившую Llama 2 от Meta. Команда потратила месяцы и около 10 миллионов долларов на обучение DBRX, большой языковой модели, похожей по конструкции на ту, что лежит в основе ChatGPT от OpenAI .
«Мы превзошли все», — сказал команде Джонатан Франкл, главный архитектор нейронных сетей в Databricks и руководитель команды, после того как получил результаты тестирования своего детища. Франкл поделился данными, показывающими, что примерно в дюжине тестов, измеряющих способность модели ИИ отвечать на общие вопросы, понимать прочитанное, решать неприятные логические головоломки и генерировать высококачественный код, DBRX был лучше, чем любая другая доступная модель с открытым исходным кодом.Особенно специалисты отметили, что тесты DBRX действительно превзошли модель искусственного интеллекта Грока от Илона Маска, недавно открывшую исходный код. «Я буду считать это успехом, если мы получим от него злобный твит», – сказал разработчик.
К удивлению команды, по нескольким показателям DBRX также был поразительно близок к GPT-4, закрытой модели OpenAI, которая считается вершиной машинного интеллекта.
Источник: hi-tech.mail.ru