После критики по поводу точности своих инструментов искусственного интеллекта Microsoft теперь предупреждает пользователей не слишком доверять ее сервисам.
Компания предоставила обновленное соглашение об обслуживании, в котором указано, что ее ИИ следует рассматривать как руководство, а не как замену профессиональных консультаций.
Обновленное соглашение, которое вступит в силу в конце следующего месяца, также включает предупреждения о ботах-здоровьях. Это связано с опасениями, что пользователи слишком доверяют предоставляемым советам.
По мнению Microsoft, ИИ не заменит квалифицированных работников
Майкрософт пересмотренные условия конкретно касается ограничений вспомогательного искусственного интеллекта: «Услуги искусственного интеллекта не разрабатываются, не предназначены и не предназначены для замены профессиональных консультаций».
Компания добавила, что боты для здоровья «не созданы и не предназначены для замены профессиональных медицинских консультаций или для диагностики, лечения, смягчения, предотвращения или лечения каких-либо заболеваний или других состояний».
Обновления отражают рост использования инструментов искусственного интеллекта в последние месяцы после появления таких инструментов, как ChatGPT, и последующей критики по поводу точности, безопасности данных и конфиденциальности.
В соглашении также подтверждается, что Copilot AI Experiences, на который распространяются Условия обслуживания Bing, не может использоваться для извлечения данных с помощью таких методов, как очистка или сбор, если это прямо не разрешено Microsoft.
Кроме того, обновления налагают более строгие правила на обратный инжиниринг моделей ИИ и обеспечивают дополнительную защиту: «Вы не можете использовать Службы ИИ для обнаружения основных компонентов моделей, алгоритмов и систем».
Microsoft также запрещает использование своих данных ИИ для создания или обучения других служб ИИ.
Хотя другие сервисы Microsoft также были обновлены, изменения в условиях искусственного интеллекта являются признаком того, что компания реагирует на проблемы ответственности и более четко управляет ожиданиями пользователей. Они также служат мягким напоминанием о том, что технологии искусственного интеллекта вряд ли заменят людей в ближайшее время.