В ответ на просьбу прокомментировать ситуацию компания указала на новую запись в блоге об «ответственном ИИ». В ней, в частности, отмечается: «Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе над созданием ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность».
Если попытаться понять все вышесказанное, то из общих фраз не удастся извлечь почти никакого смысла. Тем не менее в обтекаемых формулировках можно найти и что-то крайне важное: словосочетанием «национальная безопасность» политики обычно аргументируют не очень одобряемые общественностью действия.
В недавно обновленных принципах Google в области искусственного интеллекта рассказывается, как компания будет работать над «смягчением непреднамеренных или вредных последствий и предотвращением несправедливой предвзятости», а также над соответствием деятельности компании «общепризнанным принципам международного права и прав человека».
В последние годы контракты Google на предоставление облачных сервисов американским и израильским военным вызвали внутренние протесты сотрудников. Несмотря на это, компания и сейчас утверждает, что ее ИИ не используется для причинения вреда людям. Читайте также Как распрощаться с технологическим долгом Как контролировать технический долг? Что помогает держать долг в разумных пределах? Как научититься балансировать между скоростью разработки и качеством кода? Разбирался IT-World.
Источник: www.it-world.ru