Генеративные модели получат контроль над ядерным оружием — чем это грозит

Когда-то ядерная кнопка была прерогативой президента. День за днем в эту опасную зону проникают нейросети. Машину используют как советника, но никто не знает, как ее будут применять через 10 или 20 лет. Пока человек ответствен за решения, мировая ситуация остается под контролем. Но что будет, если мы все чаще начнем соглашаться с предложениями ИИ. А если в следующий раз не будет времени подумать?

Искусственный интеллект все активнее встраивается в наиболее неоднозначные и уязвимые сферы, и теперь дело дошло до самого опасного — ядерного оружия. Недавно специалисты по безопасности, нобелевские лауреаты и военные аналитики собрались, чтобы обсудить тревожный сценарий: что случится, если ИИ получит доступ к ядерным системам. Большинство из них склоняются к мысли, что подобное развитие событий — лишь вопрос времени.

Сейчас алгоритмы уже используются для разведки, анализа угроз, расчета траекторий и имитации боевых сценариев. В военных структурах модели помогают быстрее оценивать обстановку и молниеносно предлагать решения. Но чем ближе ИИ подбирается к системам стратегического уровня, тем острее встает вопрос — может ли машина получить реальный доступ к пусковым механизмам. Ведь даже небольшая ошибка, допущенная автономной моделью, приведет к необратимым последствиям.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии