Восемнадцать стран, включая США и Великобританию, подписали 20-страничное соглашение, в котором говорится, что компании должны разрабатывать искусственный интеллект (ИИ), который обеспечивает безопасность людей «задуманно».
Пакт, о котором было объявлено в воскресенье, был назван первым международным соглашением, направленным на обеспечение безопасности ИИ от неправомерного использования. Хотя соглашение не является обязательным, в нем излагаются общие рекомендации, такие как мониторинг систем искусственного интеллекта на предмет злоупотреблений и защита данных от несанкционированного доступа. Директор Агентства кибербезопасности и безопасности инфраструктуры США (CISA) Джен Истерли подчеркнула важность того, чтобы страны коллективно поддержали эту идею.
?Отличная новость! Мы объединили усилия с @NCSC и 21 международный партнер для разработки «Руководства по разработке безопасных систем искусственного интеллекта»! Это оперативное сотрудничество в действии для обеспечения безопасности ИИ в эпоху цифровых технологий: https://t.co/DimUhZGW4R#AISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
— Агентство кибербезопасности и безопасности инфраструктуры (@CISAgov) 27 ноября 2023 г.
«Это первый раз, когда мы видим подтверждение того, что эти возможности должны касаться не только интересных функций и того, как быстро мы сможем вывести их на рынок или как мы можем конкурировать, чтобы снизить затраты», — сказал Истерли, добавив представленные рекомендации: соглашение о том, что самое важное, что необходимо сделать на этапе проектирования, — это безопасность».
Министр внутренней безопасности США Алехандро Н. Майоркас заявил, что, по его мнению, мир находится вточка перегиба» прямо сейчас:
«Мы находимся на переломном этапе развития искусственного интеллекта, который вполне может стать самой значимой технологией нашего времени. Кибербезопасность является ключом к созданию безопасных, надежных и заслуживающих доверия систем искусственного интеллекта».
Он продолжил: «Руководящие принципы, совместно выпущенные сегодня CISA, NCSC и другими нашими международными партнерами, обеспечивают разумный путь к проектированию, разработке, развертыванию и эксплуатации ИИ, в основе которого лежит кибербезопасность. Интегрируя принципы «запроектированной безопасности», эти рекомендации представляют собой историческое соглашение, в которое разработчики должны инвестировать, защищая клиентов на каждом этапе проектирования и разработки системы. »
Правительства изо всех сил стараются опережать разработки в области искусственного интеллекта
Сделку подписали агентства, представляющие всех участников Страны G7а также другие страны, такие как Чехия, Сингапур, Израиль, Нигерия, Сингапур, Австралия и Чили.
На бумаге идея хорошая. Интеграция технологии искусственного интеллекта в нашу жизнь будет разрушительной и потенциально опасной, если ею воспользуются те, кто имеет плохие намерения.
Хартия направлена на то, чтобы защитить ИИ от рук хакеров, и содержит рекомендации по обеспечению тщательного тестирования нового программного обеспечения перед выпуском.
Несмотря на благородные цели, реальность такова, что ни к чему не обязывающие соглашения чертовски трудно обеспечить на мировой арене, тем более, что такие крупные глобальные игроки, как Китай, Россия и Индия, не подписали их. Исторически сложилось так, что конкурирующие страны объединяются в блоки для реализации крупных международных проектов, таких как космические путешествия. Заставить страны, не входящие в один блок, сотрудничать с другим непросто.
Искусственный интеллект — не новая область, но он взорвался в общественном сознании в ноябре 2022 года, когда был запущен ChatGPT. Чат-бот с большой языковой моделью (LLM) от OpenAI вызвал всплеск разработки продуктов искусственного интеллекта и вызвал реальную обеспокоенность тем, что технология может быть использована для резкого сокращения человеческих рабочих мест, манипулирования процессами голосования и совершения преступлений.
Рекомендованное изображение: Pexels