Компания OpenAI фактически расформировала команду Superalignment, призванную обеспечивать безопасность от угроз связанных с разработкой «сверхумных» ИИ. Это произошло сразу после ухода двух ключевых фигур команды — сооснователя компании и главного научного сотрудника Ильи Суцвекера, а также руководителя отдела разработки Яна Лейке. Со слов Яна, со временем приоритеты OpenAI сместились от безопасности к выпуску «сверкающих продуктов». Как итог, Superalignment перестали выделять достаточно ресурсов:
«В последние месяцы моя команда плыла против ветра. Иногда у нас были проблемы с вычислительными мощностями и проведение этих ключевых исследований становилось все сложнее и сложнее».
Слова Лейке прокомментировал генеральный директор компании Сэм Альтман. Он отметил, что ценит вклад Яна, а также сожалеет о его уходе и признает важность работы в этом направлении. OpenAI отметила в комментарии изданию Bloomberg, что вместо обособленной работы команду по безопасности «более глубоко внедрят» в различные проекты компании.
К слову, в конце 2023 года Альтмана на две недели увольняли из OpenAI:
Источник: gameguru.ru