Microsoft добавила в пользовательское соглашение для Copilot формулировку, которая может удивить тех, кто привык видеть ИИ-помощника чуть ли не главным инструментом в Windows 11. Оказывается, создатели сами не советуют полагаться на его ответы в важных вопросах.
В обновлённых условиях использования сервиса прямо сказано, что Copilot предназначен «только для развлекательных целей», поэтому Microsoft предлагает пользователям не воспринимать его рекомендации всерьёз, а использовать исключительно на свой страх и риск. На первый взгляд, это стандартная юридическая оговорка, которая защищает компанию от исков, но на фоне того, как агрессивно Microsoft продвигает Copilot в массы, это предупреждение выглядит как минимум неловко. Сервис уже встроен в операционную систему на уровне оболочки, а линейка Copilot+ PC подаётся как новое поколение компьютеров с упором на локальный ИИ, способный решать задачи быстрее и без отправки данных в облако.
![]()
Оказывается Copilot просто "игрушка"
Проблема не в том, что Microsoft перестраховывается, проблема в том, что пользователи, особенно те, кто не разбирается в устройстве нейросетей, часто принимают выдачу ИИ за истину и склонны доверять результатам работы машин больше, чем данным, которые противоречат этим результатам и уже есть примеры, чем это чревато.
Самое любопытное здесь — не сам дисклеймер, а то, насколько он расходится с реальной маркетинговой стратегией Microsoft. Компания вложила миллиарды в развитие ИИ, активно партнёрит с OpenAI, переименовала Bing Chat в Copilot, вшила помощника в каждое второе обновление Windows и одновременно говорит: «Не относитесь к этому серьёзно, это просто игрушка». Другие компании тоже используют похожие оговорки, но не все делают это так контрастно на фоне собственного же агрессивного продвижения. Google, например, в условиях использования Gemini тоже предупреждает о возможных ошибках, но Google не называет свой сервис «развлекательным».
![]()
Доверять ответам Copilot не стоит
Если вы используете Copilot для генерации идей, подбора мемов, написания черновиков писем или просто чтобы скоротать время — никаких проблем. Но как только речь заходит о вещах, где цена ошибки высока (финансовые решения, юридические консультации, здоровье, безопасность), Microsoft прямо говорит: делайте это на свой страх и риск. Проверять всё, что генерирует ИИ, пока что обязан человек и похоже, сами создатели это прекрасно понимают.
А как вы относитесь к ИИ-помощникам вроде Copilot? Доверяете ли вы им в повседневных задачах или всегда перепроверяете ответы? Делитесь мнением в комментариях.
PC НовостиЖелезо и технологииMicrosoftискусственный интеллект
Источник: vgtimes.ru