Ушедший из OpenAI руководитель отдела разработки ИИ Ян Лейке вышел на работу в ИИ-стартап Anthropic

28 мая 2024 года ушедший ранее из OpenAI руководитель отдела разработки ИИ Ян Лейке объявил, что вышел на работу в ИИ-стартап Anthropic.

Эта компания по разработке решений в сфере искусственного интеллекта является прямым конкурентом OpenAI и занимается разработкой семейства больших языковых моделей Claude, включая Claude 3, которая превосходит GPT-4 в бенчмарках.

В Anthropic Лейке будет заниматься разработкой ИИ-систем во главе своей отдельной команды, у которой основная задача будет заключаться в проведении комплексных исследований по безопасности ИИ. Лейке будет подчиняться непосредственно Джареду Каплану, главному научному руководителю Anthropic. Исследователи Anthropic, которые в настоящее время работают над масштабируемым надзором (методами управления крупномасштабным поведением ИИ предсказуемыми и желательными способами), также перейдут под управление Лейке, но через некоторое время и после его адаптации в компании.

Примечательно, что Anthropic основал бывший вице-президент по исследованиям OpenAI Дарио Амодей. Он ушел из OpenAI, потому что не был согласен с растущей коммерческой направленностью компании. И вместе с несколько бывшими сотрудниками OpenAI запустил ИИ-проект Claude.

14 мая 2024 года OpenAI сообщила, что сооснователь и ведущий эксперт по машинному обучению Илья Суцкевер покидает компанию. «Спустя почти десять лет я принял решение покинуть OpenAI. Для меня было честью и привилегией работать вместе», — написал Илья Суцкевер на своей странице в соцсети X. Он отметил, что в ближайшее время расскажет о новом проекте, в котором принимает участие.

15 мая 2024 года руководитель отдела разработки ИИ в OpenAI Ян Лейке объявил, что покинул компанию. Лейке вместе с Суцкевером возглавлял команду Superalignment в OpenAI. Он занимался тем, что изучал, не навредит ли искусственный интеллект людям. Ранее из команды Superalignment в OpenAI уволили Павла Измайлова и Леопольда Ашенбреннера. Оба были соратниками Суцкевера. Их обвинили в том, что они передавали информацию третьим лицам. Правда, кому и какую, так и осталось неизвестным. Ещё в начале мая из Superalignment ушёл эксперт по ИИ Уильям Сондерс.

В процессе комментирования в соцсети X своего ухода Лейке заявил, что группа Superalignment боролась за ресурсы для проведения исследований. По его мнения, создание машин, умнее человека, по своей сути опасное занятие. OpenAI несёт огромную ответственность за всё человечество. Но за последние годы культура и процессы безопасности отступили на второй план перед яркими продуктами.

Проработав три года в OpenAI, Лейке раскритиковал компанию за то, что она отдаёт предпочтение разработке ярких продуктов, а не развитию устойчивой культуры и процессов безопасности ИИ. Он подчеркнул острую необходимость выделения ресурсов, особенно вычислительных мощностей, для поддержки исследований его команды по обеспечению безопасности жизнедеятельности, которые упускались из виду. «Я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы, наконец, не достигли критической точки. Последние несколько месяцев моя команда шла против ветра», — рассказал Лейке.

Источник: habr.com

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии