Представьте себе, что вы входите в свой самый ценный бизнес-инструмент, когда приходите на работу, и вас встречает вот это:
«ChatGPT отключен для пользователей в Италии
Уважаемый клиент ChatGPT,
С сожалением сообщаем вам, что мы отключили ChatGPT для пользователей в Италии по запросу итальянского Garante».
OpenAI передал итальянским пользователям это сообщение в результате расследование Гарантом защиты персональных данных. Гарант цитирует конкретные нарушения следующим образом:
- OpenAI не уведомила пользователей должным образом о том, что собирает личные данные.
- OpenAI не предоставил законной причины для сбора личной информации для обучения своего алгоритма.
- ChatGPT неточно обрабатывает личную информацию без использования реальных фактов.
- OpenAI не требует от пользователей подтверждения своего возраста, хотя контент, генерируемый ChatGPT, предназначен для пользователей. старше 13 лет лет и требует согласия родителей для лиц моложе 18 лет.
По сути, целая страна потеряла доступ к широко используемой технологии, потому что ее правительство обеспокоено тем, что личные данные неправильно обрабатываются другой страной, и что эта технология небезопасна для более молодой аудитории.
Дилетта ДеЧиккомиланский советник Squire Patton Boggs по вопросам конфиденциальности данных, кибербезопасности и цифровых активов, отметил:
«Неудивительно, что решение Garante было принято сразу после того, как утечка данных затронула разговоры пользователей и данные, предоставленные OpenAI.
Это также происходит в то время, когда генеративный ИИ быстро проникает в широкую общественность (и принимается не только технически подкованными пользователями).
Несколько более удивительно то, что хотя в итальянском пресс-релизе упоминается недавний инцидент с нарушением правил, в итальянском решении об оправдании временного запрета, которое основано на: неточности данных, отсутствии информации для пользователей и отдельных лиц в общее, отсутствие проверки возраста для детей и отсутствие правовой основы для данных обучения».
Хотя OpenAI LLC работает в Соединенных Штатах, она должна соответствовать итальянскому Кодекс защиты персональных данных потому что он обрабатывает и хранит личную информацию пользователей в Италии.
Кодекс защиты личных данных был основным законом Италии, касающимся защиты личных данных, до тех пор, пока в 2018 году Европейский союз не принял Общий регламент по защите данных (GDPR). Закон Италии был обновлен, чтобы соответствовать GDPR.
Содержание
Что такое GDPR?
GDPR был введен в целях защиты конфиденциальности личной информации в ЕС. Организации и предприятия, работающие в ЕС, должны соблюдать правила GDPR в отношении обработки, хранения и использования персональных данных.
Если организации или бизнесу необходимо обрабатывать личную информацию итальянского пользователя, она должна соблюдать как Итальянский кодекс защиты персональных данных, так и GDPR.
Как ChatGPT может нарушить правила GDPR?
Если OpenAI не сможет доказать свою правоту против итальянского Garante, это может вызвать дополнительную проверку на предмет нарушения правил GDPR, связанных со следующим:
- Магазины ChatGPT пользовательский ввод — который может содержать личную информацию от пользователей из ЕС (в рамках учебного процесса).
- OpenAI позволяет тренерам для просмотра разговоров ChatGPT.
- OpenAI позволяет пользователям удалять свои учетные записи, но говорит, что они не могут удалять определенные подсказки. В нем отмечается, что пользователи не должны делиться конфиденциальной личной информацией в разговорах ChatGPT.
OpenAI предлагает юридические основания для обработки личной информации пользователей из Европейской экономической зоны (в которую входят страны ЕС), Великобритании и Швейцарии в разделе 9 Политики конфиденциальности.
Страница «Условия использования» определяет содержание в качестве ввода (ваша подсказка) и вывода (генеративный ответ ИИ). Каждый пользователь ChatGPT имеет право использовать контент, созданный с помощью инструментов OpenAI, в личных и коммерческих целях.
OpenAI информирует пользователей API OpenAI о том, что службы, использующие личные данные жителей ЕС, должны соответствовать GDPR, CCPA и применимым местным законам о конфиденциальности для своих пользователей.
По мере развития каждого ИИ генеративный контент ИИ может содержать вводимые пользователем данные как часть обучающих данных, которые могут включать личную конфиденциальную информацию от пользователей со всего мира.
Рафи Азим-Ханглобальный руководитель отдела законодательства о конфиденциальности данных и маркетинге компании Pillsbury Winthrop Shaw Pittman LLP, прокомментировал:
«Недавние законы, предлагаемые в Европе (Закон об искусственном интеллекте), привлекли внимание, но часто может быть ошибкой игнорировать другие законы, которые уже действуют и могут применяться, например, GDPR.
Принудительные действия итальянского регулятора против OpenAI и ChatGPT на этой неделе напомнили всем, что такие законы, как GDPR, действительно влияют на использование ИИ».
Азим-Хан также указал на потенциальные проблемы с источниками информации и данными, используемыми для генерации ответов ChatGPT.
«Некоторые результаты ИИ показывают ошибки, поэтому есть опасения по поводу качества данных, взятых из Интернета и/или используемых для обучения техники», — отметил он. «GDPR дает людям право исправлять ошибки (как это делает CCPA/CPRA в Калифорнии)».
А как насчет CCPA?
OpenAI решает вопросы конфиденциальности для пользователей из Калифорнии в пятом разделе своего политика конфиденциальности.
Он раскрывает информацию, передаваемую третьим сторонам, включая аффилированные лица, поставщиков, поставщиков услуг, правоохранительные органы и стороны, участвующие в транзакциях с продуктами OpenAI.
Эта информация включает в себя контактные данные пользователя и данные для входа, сетевую активность, контент и данные геолокации.
Как это может повлиять на использование Microsoft в Италии и ЕС?
Чтобы решить проблемы с конфиденциальностью данных и GDPR, Microsoft создала Центр доверия.
Пользователи Microsoft могут узнать больше о том, как их данные используются на службы Майкрософтвключая Бинг и Microsoft Copilot, работающие на технологии OpenAI.
Стоит ли беспокоиться пользователям генеративного ИИ?
«Суть в том, что [the Italian Garante case] может быть верхушкой айсберга, поскольку другие силовики более внимательно изучают модели ИИ», — говорит Азим-Хан.
«Будет интересно посмотреть, что предпримут другие европейские органы по защите данных», будут ли они немедленно следовать Garante или, скорее, займут выжидательную позицию», — добавляет Де Чикко. «Можно было бы надеяться увидеть общий ответ ЕС на такой социально чувствительный вопрос».
Если итальянский Garante выиграет дело, другие правительства могут начать расследование других технологий, в том числе аналогов и конкурентов ChatGPT, таких как Google Bard, чтобы выяснить, не нарушают ли они аналогичные правила безопасности личных данных и более молодой аудитории.
«За итальянским запретом может последовать больше», — говорит Азим-Хан. Как минимум, мы можем увидеть, как разработчикам ИИ придется удалять огромные наборы данных и переобучать своих ботов».
Избранное изображение: pcruciatti/Shutterstock