Риск развития ИИ является результатом того факта, что современные инструменты ИИ превышают этические ограничения в рамках существующей правовой базы, которые не были вызваны. Тем не менее, способ с учетом этого намерения регулирующих органов сильно различается между разными странами и регионами.
Последний саммит по ИИ в Париже подчеркнул эти нормативные различия. Примечательно, что окончательное заявление было сосредоточено на вопросах инклюзивности и открытости в развитии ИИ, в то время как оно упоминалось только во всей безопасности и надежности и подчеркивает конкретные риски ИИ, такие как угрозы безопасности или экзистенциальные опасности. Объяснение, разработанное 60 странами, не было подписано Соединенными Штатами или Великобританией, что показывает, как мало консенсуса присутствует в этой области.
Глава главы юридического консультанта в Oxylabs.
Содержание
Как разные регулирующие органы справляются с рисками ИИ
Страны и регионы отличаются друг от друга, когда они регулируют развитие и обстановку ИИ. Большинство, однако, соответствуют большинству из двух полюсов, которые существуют на другой стороне Соединенных Штатов в точке крайней и Европейского Союза.
Путь США: инновации первые инновации, регулируйте позже
У Соединенных Штатов нет законов на федеральном уровне, особенно ИИ; Вместо этого он основан на добровольных руководствах и рыночных решениях. Наиболее важные юридические положения включают Национальный закон ИИ инициативы, который направлен на координацию федеральных исследований в области ИИ, закон о повторной авторизации Федеральной авиационной администрации и NIST Pramework Национального института стандартных и технологий (NIST) и NIST -структуры для управления рисками Национального института стандарта и технологий.
В октябре 2023 года президент Байден предоставил исполнительное регулирование для безопасного, безопасного и заслуживающего доверия искусственного интеллекта, в котором изложены стандарты для критически важной инфраструктуры, улучшает кибербезопасность, контролируемую ИИ и регулировал проекты искусственного интеллекта, финансируемые федеральным правительством. Тем не менее, регулирующий ландшафт США остается плавным и подвергается политическим изменениям. В январе 2025 года президент исполнительного постановления Трампа Биденса и дал представление о потенциальной точке овода для продвижения инноваций, а не от регулирования.
Одним из критических замечаний подхода США является «фрагментированный характер», который приводит к сложной сети правил, «отсутствие принудительных стандартов» и «пробелы в защите защиты данных». Тем не менее, странный подход страны к регулированию ИИ может очень хорошо измениться в будущем. Только в 2024 году законодатели штата ввели почти 700 законов AI, и было несколько слушаний по KI в управлении, ИИ и интеллектуальной собственности и т. Д. Это показывает, что правительство США не откладывает перед регулированием, но ищет способы реализовать его без слишком большого компромисса в инновациях.
Путь ЕС: подход к предотвращению повреждений
Европейский союз выбрал совершенно другой подход. В августе 2024 года Европейский парламент и Совет сослались на закон об искусственном интеллекте (Закон об ИИ), который до сих пор рассматривался как наиболее полная часть правил ИИ. С помощью подхода, основанного на рисках, закон представляет самые строгие правила для высокочувствительных систем ИИ, например, B. Те, кто используется в здравоохранении и критической инфраструктуре, в то время как приложения с низким риском подвержены минимальному мониторинге. Некоторые приложения, такие как B. Управляемые государством системы социальной оценки, прямо запрещены.
Подобно GDPR, закон записывает соблюдение соответствия не только в пределах границ ЕС, но и поставщиком, дилером или пользователем систем ИИ, которые работают в ЕС или предлагают решения для ИИ для своего рынка (даже если система была разработана за пределами ИТ). Это может быть некоторыми проблемами для нас и других поставщиков интегрированных продуктов, не входящих в ЕС. Одним из критических замечаний подхода блока является предполагаемый провал, золотой стандарт для прав человека, чрезмерная сложность и отсутствие ясности и высокие технические требования в то время, когда ЕС пытается повысить свою конкурентоспособность.
Нормативно -правовая среда
Соединенное Королевство приняло «легкую» рамку где -то между ЕС и США. Кадр основан на определенных принципах и основных ценностях, таких как безопасность, справедливость и прозрачность. Существующие надзорные органы, такие как Управление Уполномоченного по информации, уполномочены реализовать эти принципы в своих областях.
В ноябре 2023 года Великобритания основала Институт безопасности ИИ (AISI) и разработана с границы целевой группы AI. AISI поручено оценить безопасность современных моделей искусственного интеллекта, работать с крупными разработчиками искусственного интеллекта для проведения тестов на безопасность и продвижения международных стандартов. Британское правительство также опубликовало план действий по возможности ИИ, в котором были реализованы меры по инвестированию в фонды искусственного интеллекта, захват ИИ и продвижение систем ИИ в области ИИ. Критика британского подхода к регулированию искусственного интеллекта включает ограниченные навыки обеспечения соблюдения («все глаза, без рук»), отсутствие координации между отраслевыми законами и отсутствие центрального регулирующего органа.
Другие крупные страны также нашли свое собственное место где-то в спектре США. Канада ввела основанный на рисках подход с предлагаемым законодательством о искусственном интеллекте и данных (AIDA), который предназначен для компенсации инноваций с безопасностью и этическими соображениями. Япония подчеркнула «человеческий» подход для ИИ и опубликовал руководящие принципы для продвижения заслуживающего доверия развития.
В Китае регулирование искусственного интеллекта строго контролируется государством, в результате чего последние законы требуют, чтобы генеративные модели ИИ соответствовали социалистическим ценностям и подлежат обзорам безопасности. В настоящее время Австралия опубликовала структуру Kei -Ethics и изучает обновления своих законов о защите данных, чтобы справиться с возникающими проблемами.
Определение международного сотрудничества
Если технология ИИ развивается, различия между регулирующими подходами становятся еще более ясными. Независимо от индивидуального подхода, определенные страны в отношении защиты данных, защиты авторских прав и других аспектов срочно необходимы, чтобы иметь более когерентный более глобальный консенсус в отношении важных рисков ИИ. Международное сотрудничество имеет решающее значение для определения основных стандартов, которые способствуют как наиболее важным рискам, так и продвижению инноваций.
В настоящее время работают глобальные организации, такие как организация по экономическому сотрудничеству и развитию (ОЭСР), Организация Объединенных Наций и несколько других для определения международных стандартов и этических руководящих принципов для ИИ. Спустя вперед требуется, чтобы каждый в отрасли мог найти общую основу. И если мы считаем, что инновация движется со скоростью света, время обсуждения и согласования сейчас.
Мы перечислили лучший ноутбук для студентов компьютерных наук.
Эта статья была произведена в рамках канала Expert Insights Techradarpro, в котором мы сегодня предлагаем лучшие и умные руководители в технологической индустрии. Взгляды, выраженные здесь, относятся к авторскому и не обязательно мнениям Techradarpro или Future PLC. Если вы заинтересованы в том, чтобы определить больше здесь: