Microsoft официально назвала Copilot «развлечением» и просит не принимать его всерьёз

Microsoft добавила в пользовательское соглашение для Copilot формулировку, которая может удивить тех, кто привык видеть ИИ-помощника чуть ли не главным инструментом в Windows 11. Оказывается, создатели сами не советуют полагаться на его ответы в важных вопросах.

В обновлённых условиях использования сервиса прямо сказано, что Copilot предназначен «только для развлекательных целей», поэтому Microsoft предлагает пользователям не воспринимать его рекомендации всерьёз, а использовать исключительно на свой страх и риск. На первый взгляд, это стандартная юридическая оговорка, которая защищает компанию от исков, но на фоне того, как агрессивно Microsoft продвигает Copilot в массы, это предупреждение выглядит как минимум неловко. Сервис уже встроен в операционную систему на уровне оболочки, а линейка Copilot+ PC подаётся как новое поколение компьютеров с упором на локальный ИИ, способный решать задачи быстрее и без отправки данных в облако.

Оказывается Copilot просто "игрушка"

Оказывается Copilot просто "игрушка"

Проблема не в том, что Microsoft перестраховывается, проблема в том, что пользователи, особенно те, кто не разбирается в устройстве нейросетей, часто принимают выдачу ИИ за истину и склонны доверять результатам работы машин больше, чем данным, которые противоречат этим результатам и уже есть примеры, чем это чревато.

Самое любопытное здесь — не сам дисклеймер, а то, насколько он расходится с реальной маркетинговой стратегией Microsoft. Компания вложила миллиарды в развитие ИИ, активно партнёрит с OpenAI, переименовала Bing Chat в Copilot, вшила помощника в каждое второе обновление Windows и одновременно говорит: «Не относитесь к этому серьёзно, это просто игрушка». Другие компании тоже используют похожие оговорки, но не все делают это так контрастно на фоне собственного же агрессивного продвижения. Google, например, в условиях использования Gemini тоже предупреждает о возможных ошибках, но Google не называет свой сервис «развлекательным».

Доверять ответам Copilot не стоит

Доверять ответам Copilot не стоит

Если вы используете Copilot для генерации идей, подбора мемов, написания черновиков писем или просто чтобы скоротать время — никаких проблем. Но как только речь заходит о вещах, где цена ошибки высока (финансовые решения, юридические консультации, здоровье, безопасность), Microsoft прямо говорит: делайте это на свой страх и риск. Проверять всё, что генерирует ИИ, пока что обязан человек и похоже, сами создатели это прекрасно понимают.

А как вы относитесь к ИИ-помощникам вроде Copilot? Доверяете ли вы им в повседневных задачах или всегда перепроверяете ответы? Делитесь мнением в комментариях.

PC НовостиЖелезо и технологииMicrosoftискусственный интеллект

Источник: vgtimes.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии