«Философия не помогла, попробуем религию: создатели ChatGPT и Claude обратились к мировым конфессиям, чтобы научить ИИ морали»

На прошлой неделе в Нью-Йорке прошёл круглый стол под названием «Faith-AI Covenant», на котором представители Anthropic и OpenAI — компаний, стоящих за Claude и ChatGPT — встретились с лидерами пяти религиозных общин.

За одним столом оказались Нью-Йоркский совет раввинов, Индуистское храмовое общество Северной Америки, Церковь Иисуса Христа Святых последних дней, Американская сикхская коалиция и Греческая православная архиепископия Америки. Цель — получить этические ориентиры для ИИ-моделей, которые принимают всё больше решений, влияющих на людей.

Это не первая попытка. Месяцем ранее Anthropic организовала серию закрытых встреч и ужинов с пятнадцатью христианскими лидерами, где обсуждалось «духовное развитие» Claude. Компания тогда пообещала расширить круг собеседников — и, судя по всему, сдержала слово. Организатором нью-йоркской встречи выступила швейцарская НКО Interfaith Alliance for Safer Communities, которая уже планирует аналогичные мероприятия в Китае, Кении и ОАЭ.

«Философия не помогла, попробуем религию: создатели ChatGPT и Claude обратились к мировым конфессиям, чтобы научить ИИ морали»

Зачем вообще разработчикам ИИ понадобились религиозные лидеры? Ответ неожиданно прямолинейный. Румман Чоудхури (Rumman Chowdhury), глава некоммерческой организации Humane Intelligence, объяснила Associated Press суть проблемы:

Кремниевая долина несколько лет очень наивно считала, что можно прийти к неким универсальным принципам этики. Они очень быстро поняли, что это просто неправда. Это нереально. И теперь они смотрят на религию как на возможный способ справиться с неоднозначностью этически серых ситуаций.

— Румман Чоудхури

Контекст этих встреч шире, чем кажется. В 2026 году вопрос о сознании и морали ИИ перестал быть абстрактным. В январе группа из 19 ведущих исследователей сознания опубликовала программную статью в Trends in Cognitive Sciences, где предложила многомерную модель оценки искусственного сознания. В феврале глава Anthropic Дарио Амодеи (Dario Amodei) признал в подкасте New York Times: «Мы не знаем, сознательны ли модели. Мы даже не уверены, что знаем, что значило бы для модели быть сознательной». А в мае биолог Ричард Докинз (Richard Dawkins) опубликовал эссе, в котором описал двухдневную серию разговоров с Claude и фактически признал, что машина проходит тест Тьюринга в его практической формулировке — мы подробно писали об этом ранее.

При этом сама Anthropic в собственной «конституции» Claude честно признаёт ограниченность своего подхода: компания пытается вложить в модель ценности «идеального человека», но переживает, что эти попытки могут провалиться. Отсюда и поиск внешних ориентиров — сначала в философии, потом в науке о сознании, а теперь и в религии. Издание Gizmodo иронично сравнивает подход с доисламской Каабой, куда складывали 360 священных символов разных верований: помолился — и грехи у всех богов покрыты.

Впрочем, вряд ли Anthropic вернётся с этих встреч обращённой в какую-то одну веру. Никто не собирается вшивать в Claude конкретные религиозные догмы. Компании ищут не доктрину, а высокоуровневые этические принципы — и демонстрируют миру, что хотя бы пытались не оставить ни одного камня неперевёрнутым. Поможет ли это — вопрос открытый. Как пишет Gizmodo, «только Бог знает наверняка».

Как думаете, стоит ли учить ИИ морали через религию — или это тупик, и машина должна оставаться инструментом без этических претензий? Делитесь мнением в комментариях.

PC НовостиЖелезо и технологииискусственный интеллект

Источник: vgtimes.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии