Возняк и Бэннон поддержали заявление о моратории на сверхинтеллект

22 октября 2025 года Институт «Будущее жизни» (Future of Life Institute, FLI) опубликовал «Заявление о сверхинтеллекте» — призыв к временному запрету на разработку систем, способных превосходить человека в большинстве интеллектуальных задач. Среди подписантов — сооснователь Apple Стив Возняк, политический стратег Стив Бэннон, нобелевские лауреаты Йошуа Бенджио и Джеффри Хинтон, а также Ричард Брэнсон, принц Гарри и Меган.

Авторы документа предлагают остановить исследования и запуск подобных систем до выполнения двух условий: пока не будет достигнут научный консенсус о том, что сверхинтеллект безопасен и поддаётся контролю, и пока общество не выработает чёткий мандат на такие разработки. В заявлении говорится, что стремительное развитие ИИ может угрожать труду, свободе и достоинству человека, а в перспективе — и самому выживанию цивилизации.

Нынешний документ стал продолжением более раннего письма FLI от марта 2023 года, в котором ученые и предприниматели просили объявить «паузу» на обучение моделей мощнее GPT-4. Тогда идея вызвала бурные дискуссии, но ощутимых изменений в политике ИИ-компаний не принесла. Теперь институт делает шаг дальше, предлагая уже прямой мораторий.

Организация подчеркивает, что её подход не направлен против развития ИИ как технологии, а лишь требует создания «системы тормозов», чтобы не потерять контроль в критический момент. Представители FLI надеются, что краткий и максимально нейтральный текст позволит объединить как техническое, так и гуманитарное сообщество.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии