Недавний запрет ChatGPT в Италии — лишь одна из многих потенциальных юридических проблем, с которыми сталкивается OpenAI.
Поскольку Европейский союз работает над принятием Закон об искусственном интеллектеСоединенные Штаты определяют ИИ Билль о праваха Великобритания рекомендует существующие агентства обычный ИИпользователи ChatGPT по всему миру подали жалобы на OpenAI из-за потенциальных проблем с безопасностью.
Содержание
OpenAI и глобальные проблемы безопасности
Центр искусственного интеллекта и цифровой политики подал заявление жалоба с Федеральной торговой комиссией, чтобы остановить OpenAI от разработки новых моделей ChatGPT до тех пор, пока не будут установлены защитные ограждения.
Итальянский Garante запустил расследование в OpenAI в связи с недавней утечкой данных и отсутствием проверки возраста, чтобы защитить молодых пользователей от неуместного генеративного контента ИИ во время регистрации.
Ирландская комиссия по защите данных планирует координировать с итальянской Garante и комиссией по защите данных ЕС, чтобы определить, нарушил ли ChatGPT законы о конфиденциальности.
В соответствии с Рейтеррегуляторы конфиденциальности в Швеции и Испании не планируют расследовать ChatGPT сейчас, но могут в будущем, если пользователи будут подавать жалобы на технологию ИИ.
И это лишь некоторые из недавних жалоб, расследований и комментариев из разных стран об ответственности компаний, занимающихся искусственным интеллектом.
Тем временем в Германии Ульрих Кельбер, пресс-секретарь регионального федерального уполномоченного по защите данных, сказал запрет, аналогичный запрету в других странах, может последовать, если OpenAI нарушит GDPR или аналогичную политику.
Однако Фолькер Виссинг, министр транспорта и цифровой инфраструктуры Германии, указал, что запрет — не лучший подход.
«Нам нужен не запрет на приложения ИИ, а способы обеспечения таких ценностей, как демократия и прозрачность», — говорит Виссинг.
Канада, похоже, тоже последовала этому примеру после того, как ее Управление уполномоченного по вопросам конфиденциальности запустило расследование в жалобу на сбор личных данных ChatGPT без согласия.
А во Франции Жан-Ноэль Барро, министр цифрового перехода и телекоммуникаций, прокомментировал на волне возбуждения ИИ, за которым следует страх ИИ. План страны, похоже, состоит в том, чтобы освоить технологию искусственного интеллекта и разработать модели и технологии, поддерживающие французские ценности.
Будут ли страны навсегда запрещать ChatGPT?
OpenAI недавно опубликовал FAQ для Итальянские пользователи и подтвердила свою приверженность созданию безопасных, точных и конфиденциальных систем.
Но каковы шансы, что расследования против OpenAI приведут к постоянному запрету его технологии в Италии и других странах?
Учитывая, что судья в Колумбия недавно использовал ChatGPT, чтобы помочь в решении суда, а другой в Индия использовал его для принятия решения об освобождении под залог, у OpenAI есть некоторые шансы в его пользу.
ChatGPT+ с моделью GPT-4 предлагает удивительно сбалансированные точки зрения о влиянии своей технологии и рисках, которые она представляет.
В ответ на вопрос «Должна ли такая страна, как Италия, запретить ChatGPT из-за проблем с обработкой данных?», ChatGPT+ отвечает:
«Конфиденциальность данных: важно, чтобы системы ИИ соответствовали правилам защиты данных, таким как Общий регламент ЕС по защите данных (GDPR). Обеспечение того, чтобы ChatGPT соблюдал эти правила и уважал конфиденциальность пользователей, имеет решающее значение. Если есть опасения по поводу обработки данных, стоит выяснить, соответствует ли OpenAI необходимым правилам».
Ответ продолжается обзором преимуществ ИИ, этики и предвзятости, конкурентоспособности и альтернатив.
Конечно, если а страна не имеет доступа к ChatGPT, некоторые пользователи могут получить к нему доступ с помощью службы виртуальной частной сети (VPN). Google Trends показывает, что в Италии в начале апреля был всплеск запросов VPN, что совпало с запретом ChatGPT.
Могут ли судебные иски против технологии OpenAI повлиять на пользователей?
Несут ли пользователи OpenAI юридическую ответственность за проблемы, возникающие в результате использования и вывода его инструментов? Это зависит, согласно OpenAI Условия эксплуатации.
Если пользователи нарушат какие-либо условия или политики OpenAI при использовании таких инструментов, как ChatGPT или API, они могут нести ответственность за свою защиту.
OpenAI не гарантирует, что его услуги всегда будут работать должным образом или что определенный контент (ввод и вывод генеративного инструмента ИИ) безопасен, отмечая, что он не будет нести ответственность за такие результаты.
Большинство OpenAI предлагает компенсацию пользователям за ущерб, причиненный его инструментами, — это сумма, которую пользователь заплатил за услуги в течение прошлого года, или 100 долларовпри условии отсутствия применимых других региональных законов.
Больше судебных исков в области ИИ
Приведенные выше случаи — это только верхушка айсберга правового ИИ. OpenAI и его аналоги сталкиваются с дополнительными юридическими проблемами, включая следующие.
- Мэр Австралии может подать в суд OpenAI за клевету из-за недостоверной информации о нем, предоставленной ChatGPT.
- Второй пилот GitHub сталкивается с коллективным иском по поводу законных прав создателей кода с открытым исходным кодом в данных обучения Copilot.
- Стабильность AI, DeviantArt и Midjourney столкнуться с коллективным иском по поводу использования StableDiffusion, которая использовала искусство, защищенное авторским правом, в своих обучающих данных.
- Getty Images подала в суд на Стабильность ИИ за использование защищенного авторским правом контента Getty Images в обучающих данных.
Каждый случай может изменить будущее развития ИИ.
Избранное изображение: Джулио Бензин/Shutterstock