Вымрет ли человечество от ИИ? Ученые обсуждают реальность угрозы

Вымрет ли человечество от ИИ? Ученые обсуждают реальность угрозы

Сценарий «ИИ-2027», разработанный бывшим сотрудником OpenAI Дэниелом Кокотайло, описывает мир, где система искусственного интеллекта получает контроль над правительствами и инфраструктурой, а затем уничтожает человечество ради ресурсов. Это научная фантастика, но для некоторых людей и даже экспертов — вполне реальная угроза.

«Если мы окажемся в ситуации, когда у нас будут машины умнее нас, работающие без нашего контроля, часть их действий окажется несовместимой с человеческой жизнью», — предупреждает Андреа Миотти, основатель организации ControlAI, которая выступает за предотвращение создания сверхразумного ИИ.

Рывок в возможностях ИИ, который начался в 2022 году с появлением больших языковых моделей подстегнул опасения. «Я никогда не был пессимистом, но в последние месяцы сильно занервничал», — признается специалист по управлению ИИ из Университета Джонса Хопкинса Джиллиан Хэдфилд.

Однако многие специалисты настроены к таким сценариям-катастрофам скептически. «Я не вижу ни одного конкретного варианта вымирания человечества из-за ИИ, который выглядел бы хоть сколько-нибудь обоснованным», — говорит нейробиолог и специалист по ИИ из Нью-Йоркского университета Гари Маркус. Он, как и многие его коллеги предупреждают, что излишняя паника может отвлечь от реальных и хорошо задокументированных рисков ИИ — распространения дезинформации, массовой слежки, подрыва образования.

Опросы показывают неоднозначную картину. В исследовании University College London лишь 3% из 4000 опрошенных специалистов по ИИ назвали экзистенциальный риск главной угрозой. Но в другом опросе 2024 года уже 53% ученых оценили вероятность вымирания человечества от ИИ в 10% — больше, чем 47% годом ранее.

Специалист Института будущего жизни Энтони Агирре указывает на стремительный прогресс искусственного интеллекта: «Любой, кто думает, что у развития ИИ есть предел или хотя бы плато, покажите мне это на графиках — этого там просто нет». Коллеге возражает Кейси Мок из Университета Дьюка: успехи языковых моделей, которые те демонстрируют в контролируемых условиях еще не означают, что ИИ может повторить их в хаотичном реальном мире.

Споры идут и о стратегии развития ИИ: фокусироваться ли на гипотетических угрозах будущего или на текущих проблемах? Некоторые эксперты считают, что акцент на «конце света» дает компаниям предлог избегать регулирования ИИ под предлогом соревнования с геополитическими соперниками.

Что же делать? Большинство специалистов сходятся в одном: заниматься безопасностью и управлением ИИ нужно уже сейчас, но опираться при этом на проверяемые научные данные, а не только на апокалиптические сценарии. Технические меры контроля ИИ — аудируемые архитектуры, «конституции» для моделей, отдельные надежные системы‑надзиратели — пока находятся в зачаточном состоянии и получают лишь небольшуюдолю инвестиций по сравнению с крупнейшими моделями, развивающимися без ограничений. Параллельно необходимы законы и институты, которые будут регулировать реальное применение ИИ: прозрачность, ответственность за ущерб, ограничения в чувствительных областях (оружие, критическая инфраструктура, слежка).

Сфокусироваться только на нынешних рисках — значитс высокой вероятностью недооценить долгосрочные; зациклиться лишь на апокалипсисе — забыть о том, как ИИ уже меняет общество сегодня. В этом, по сути, и заключается главный вывод, который можно сделать уже сейчас из продолжающейся дискуссии: разговор об «ИИ, который нас всех убьет», важен как часть более широкой повестки, но не должен подменять работу по снижению реальных угроз ИИ — от подрыва демократии до утраты человеком своих навыков.

Ранее ученые выяснили, что ИИ-ассистенты снижают качество обучения.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии