LinkedIn перекладывает ответственность за распространение вводящей в заблуждение или неточной информации, полученной с помощью собственных инструментов искусственного интеллекта, на пользователей, а не на сами инструменты.
Обновление Соглашения об оказании услуг в ноябре 2024 года будет возлагать на пользователей ответственность за распространение дезинформации, созданной инструментами искусственного интеллекта и нарушающей Соглашение о конфиденциальности.
Поскольку никто не может гарантировать, что контент, созданный с помощью генеративного ИИ, правдив и точен, компании защищают себя, возлагая на пользователей ответственность за модерацию контента, которым они делятся.
Неточные, вводящие в заблуждение или бесполезные данные
Обновление следует по стопам материнской компании LinkedIn Microsoft, которая обновила свои условия обслуживания в начале 2024 года, чтобы напомнить пользователям не относиться к услугам ИИ слишком серьезно и устранить ограничения ИИ, отметив, что они «не предназначены и не предназначены для таких целей». . использоваться вместо профессиональной консультации».
LinkedIn продолжит предоставлять функции, которые могут генерировать автоматический контент, с оговоркой, что они могут быть ненадежными.
«Функции генеративного искусственного интеллекта. Используя Сервисы, вы можете взаимодействовать с предлагаемыми нами функциями, которые автоматизируют создание контента для вас. «Сгенерированный контент может быть неточным, неполным, задержанным, вводящим в заблуждение или неподходящим для ваших целей», — говорится в обновленном отрывке.
Новая политика напоминает пользователям о необходимости перепроверить всю информацию и при необходимости внести изменения в соответствии с принципами сообщества.
«Пожалуйста, просмотрите и отредактируйте такой контент, прежде чем делиться им с другими. Как и в случае с любым контентом, которым вы делитесь в наших Сервисах, вы несете ответственность за то, чтобы он соответствовал правилам нашего профессионального сообщества, включая неразглашение вводящей в заблуждение информации».
Социальная сеть, вероятно, ожидает, что ее модели genAI улучшатся в будущем, тем более что теперь она по умолчанию использует пользовательские данные для обучения своих моделей и требует от пользователей отказаться, если они не хотят, чтобы их данные использовались.
Этот шаг вызвал значительную негативную реакцию, поскольку проблемы GDPR по всем направлениям сталкиваются с моделями генеративного искусственного интеллекта. Однако недавнее обновление политики показывает, что эти модели по-прежнему требуют серьезного обучения.
Над Регистр