Microsoft перепишет условия Copilot после критики формулировки про «развлечение»

2 мин
Microsoft перепишет условия Copilot после критики формулировки про «развлечение»

В условиях использования Microsoft Copilot обнаружили формулировку, которая резко расходится с тем, как компания продвигает продукт для работы и бизнеса. На странице условий сервиса сказано, что Copilot предназначен «только для развлекательных целей», может ошибаться, может работать не так, по прогнозам, и на него не стоит полагаться при получении важного совета. Microsoft также предупреждает: использовать Copilot нужно на свой риск.

История получила резонанс на фоне того, что Microsoft активно продвигает Copilot как рабочий средство для корпоративных клиентов и пользователей Microsoft 365. На этом фоне формулировка из terms of use выглядит особенно контрастно: маркетинг продает ИИ как помощника для продуктивности, а юридический текст советует не доверять ему в важных вопросах.

Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.

После обсуждения в СМИ Microsoft заявила, что речь идет о «устаревшей формулировке». В комментарии, который цитируют профильные издания, представитель компании пояснил, что этот текст остался с более раннего этапа развития Copilot и больше не отражает нынешние сценарии использования продукта. По словам Microsoft, формулировку изменят в следующем обновлении условий.

Одновременно Microsoft не уникальна: другие AI-компании тоже прямо предупреждают пользователей не воспринимать ответы моделей как истину и не использовать их как единственный источник фактов. Но в случае Copilot внимание привлекла именно жесткая фраза про «развлекательные цели probability». Она особенно заметна для продукта, который организация продает как помощника для документов, почты, презентаций и корпоративных задач.

История хорошо показывает текущее состояние генеративного ИИ: бизнес хочет монетизировать такие инструменты как можно шире, а юридические команды параллельно страхуются от ошибок, галлюцинаций и неверных решений пользователей. Поэтому реальная инструкция по использованию Copilot пока остается прежней: ознакомиться, проверять и не отдавать модели последнее слово там, где важны точность и последствия.

Читают сейчас

Новости фронтенда. №2

18 минут назад

Новости фронтенда. №2

Всем привет ребята! Весьма много новостей и все супер крутые!! 🛸🚀🌍 САМОЕ ВАЖНОЕ В МИРЕ Весь мир следит за Artemis II — первую пилотируемую миссию к Луне за последние 50+ лет. Да, снова люди за пред

ITFB Group расширила low-code инструментарий на платформе «Симфония» и реализовала конструктор динамических объектов

20 минут назад

ITFB Group расширила low-code инструментарий на платформе «Симфония» и реализовала конструктор динамических объектов

ITFB Group представила свежий инструмент платформы «Симфония» — конструктор динамических объектов. Решение даёт возможность без программирования разрабатывать и настраивать объекты (бизнес-сущности),

42 минуты назад

Positive Technologies и МФТИ запустили бакалавриат по реверс-инжинирингу

МФТИ и компания Positive Technologies запустили совместный инициатива по подготовке реверс-инженеров. Стороны подписали соответствующее соглашение 1 апреля 2026 года. Новая программа бакалавриата «Раз

48 минут назад

Криптовалюту в России планируют признать полноценным имуществом: её можно будет наследовать и делить при разводе

Криптовалюта в России может получить полноценный правовой статус имущества. Как рассказал «Газете.Ru» начальник управления развития цифровых активов спецдепозитария «Инфинитум» Виктор Бурчик, новый за

1 час назад

Школьники в Англии теряют навыки мышления в связи с использования искусственного интеллекта

В соответствии с результатам опроса учителей средних школ в Англии, ученики, использующие искусственный интеллект, теряют способность к критическому мышлению. Опрошенные заявили, что дети больше не чу