22 октября 2025 года Институт «Будущее жизни» (Future of Life Institute, FLI) опубликовал «Заявление о сверхинтеллекте» — призыв к временному запрету на разработку систем, способных превосходить человека в большинстве интеллектуальных задач. Среди подписантов — сооснователь Apple Стив Возняк, политический стратег Стив Бэннон, нобелевские лауреаты Йошуа Бенджио и Джеффри Хинтон, а также Ричард Брэнсон, принц Гарри и Меган.
Авторы документа предлагают остановить исследования и запуск подобных систем до выполнения двух условий: пока не будет достигнут научный консенсус о том, что сверхинтеллект безопасен и поддаётся контролю, и пока общество не выработает чёткий мандат на такие разработки. В заявлении говорится, что стремительное развитие ИИ может угрожать труду, свободе и достоинству человека, а в перспективе — и самому выживанию цивилизации.
Нынешний документ стал продолжением более раннего письма FLI от марта 2023 года, в котором ученые и предприниматели просили объявить «паузу» на обучение моделей мощнее GPT-4. Тогда идея вызвала бурные дискуссии, но ощутимых изменений в политике ИИ-компаний не принесла. Теперь институт делает шаг дальше, предлагая уже прямой мораторий.
Организация подчеркивает, что её подход не направлен против развития ИИ как технологии, а лишь требует создания «системы тормозов», чтобы не потерять контроль в критический момент. Представители FLI надеются, что краткий и максимально нейтральный текст позволит объединить как техническое, так и гуманитарное сообщество.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com