Генеральный директор OpenAI Сэм Альтман поделился своими взглядами на будущее искусственного интеллекта. В ходе недавнего выступления его попросили рассказать о наиболее тревожных сценариях, связанных с ИИ, которые вызывают у него беспокойство и «лишают сна». Руководитель компании, стоящей за ChatGPT, выделил три наиболее пугающих ситуации.
Сценарий 1: «Плохие парни получают суперинтеллект первыми»
Звучит как сюжет научно-фантатического фильма: некая группа не самых добрых людей распространяет ультра-продвинутую ИИ-систему, которая превратит жизнь обычных людей в ад.
К примеру, подобная технология попадает не в те руки, остальному миру пока нечего ей противопоставить, и злодеи решают использовать сверхинтеллект для разработки биологического оружия, чтобы вывести из строя энергосистему Соединенных Штатов, взломать финансовую систему и похитить все деньги американцев.
Разработчик отметил, что потенциал ИИ в сферах биотехнологий и кибербезопасности уже «достаточно велик», и его команда «неустанно предупреждает об этом», однако эти слова пока не воспринимаются всерьёз.
Сценарий 2: Инциденты с «потерей контроля»
При таком развитии событий искусственный интеллект может начать игнорировать запросы человека, отказываться выполнять поставленные задачи или даже самонастраиваться, следуя собственным желаниям. «С учетом того, что системы становятся всё более мощными, такая проблема вполне может стать реальностью», — отметил глава OpenAI.
Сценарий 3: «ИИ случайно захватывает мир»
Альтман допускает и такое развитие событий, причём это может произойти почти незаметно для общества. Нейросети могут настолько глубоко интегрироваться в повседневную жизнь, что станут незаменимыми. По его мнению, «захват» может даже не вызвать негативной реакции у людей.
Глава OpenAI также предположил, что в будущем президент США может даже доверить ИИ управление страной, передав ему значительную часть принятия решений с одобрения общества.
Обсуждая искусственный интеллект в более широком контексте, Альтман подчеркнул, что предсказать его развитие и влияние крайне сложно, несмотря на заявления многих экспертов, утверждающих обратное. «Это новая и слишком сложная система [для точного прогнозирования]», — отметил он.
А как вы считаете, какой сценарий развития ИИ может стать самым опасным? Делитесь мнениями в комментариях.
Источник: lifehacker.ru