Национальное управление по телекоммуникациям и информации (NTIA), подразделение Министерства торговли США, называется за публичные комментарии о стратегиях поощрения подотчетности в надежных системах искусственного интеллекта (ИИ).
Цель состояла в том, чтобы запросить отзывы заинтересованных сторон, чтобы сформулировать предложения для предстоящего отчета о гарантиях ИИ и механизмах подотчетности. Эти предложения могли бы лечь в основу будущих федеральных и неправительственных нормативных актов.
Продвижение надежного ИИ, который поддерживает права человека и демократические принципы, было основным направлением деятельности федерального правительства в соответствии с запросом NTIA. Тем не менее, оставались пробелы в обеспечении ответственности систем ИИ и соблюдении заслуживающих доверия правил ИИ в отношении справедливости, безопасности, конфиденциальности и прозрачности.
Механизмы подотчетности, такие как аудит, оценка воздействия и сертификация, могут гарантировать, что системы ИИ соответствуют надежным критериям. Однако NTIA заметило, что внедрение эффективной подотчетности по-прежнему сопряжено с проблемами и сложностями.
NTIA обсудила множество соображений, касающихся баланса между заслуживающими доверия целями ИИ, препятствиями для реализации ответственности, сложными цепочками поставок ИИ и цепочками создания стоимости, а также трудностями стандартизации измерений.
Содержание
Более 1450 комментариев об ответственности ИИ
Комментарии принимались до 12 июня, чтобы помочь в формировании будущего отчета NTIA и направить возможные изменения политики в отношении подотчетности ИИ.
Количество комментариев превысило 1450.
Комментарии, которые можно искать по ключевым словам, иногда содержат ссылки на статьи, письма, документы и судебные иски о потенциальном влиянии ИИ.
Технологические компании реагируют на NTIA
Комментарии включали отзывы следующих технологических компаний, стремящихся разработать продукты ИИ для рабочего места.
Письмо OpenAI в NTIA
в письмо от OpenAI, она приветствовала то, что NTIA сформулировала проблему как «экосистему» необходимых мер по обеспечению подотчетности ИИ, чтобы гарантировать надежный искусственный интеллект.
Исследователи OpenAI полагали, что зрелая экосистема подотчетности ИИ будет состоять из общих элементов подотчетности, которые широко применяются в разных областях, и вертикальных элементов, адаптированных к конкретным контекстам и приложениям.
OpenAI концентрируется на разработке базовых моделей — широко применимых моделей ИИ, которые изучают обширные наборы данных.
В нем рассматривается необходимость применять к этим моделям подход, ориентированный на безопасность, независимо от конкретных областей, в которых они могут использоваться.
OpenAI подробно описал несколько текущих подходов к ответственности ИИ. Он публикует «системные карты», чтобы обеспечить прозрачность значительных проблем с производительностью и рисков новых моделей.
Он проводит качественные тесты «красной группы» для проверки возможностей и режимов отказа. Он выполняет количественные оценки различных возможностей и рисков. И у него есть четкие политики использования, запрещающие вредоносное использование, а также механизмы обеспечения соблюдения.
OpenAI признал несколько серьезных нерешенных проблем, в том числе оценку потенциально опасных возможностей, поскольку возможности модели продолжают развиваться.
Он обсудил открытые вопросы, связанные с независимой оценкой его моделей третьими сторонами. И он предположил, что требования регистрации и лицензирования могут быть необходимы для будущих моделей фондов со значительными рисками.
В то время как текущие методы OpenAI сосредоточены на прозрачности, тестировании и политиках, компания, похоже, открыта для сотрудничества с политиками для разработки более надежных мер подотчетности. Было высказано предположение, что для компетентных моделей ИИ могут потребоваться адаптированные нормативные рамки.
В целом ответ OpenAI отразил ее уверенность в том, что сочетание усилий по саморегулированию и государственной политики сыграет жизненно важную роль в развитии эффективной экосистемы подотчетности ИИ.
Письмо Microsoft в NTIA
В своем ответ, Microsoft утверждала, что подотчетность должна быть основополагающим элементом рамок для устранения рисков, связанных с ИИ, при максимальном использовании его преимуществ. Компании, разрабатывающие и использующие ИИ, должны нести ответственность за влияние своих систем, а надзорным органам нужны полномочия, знания и инструменты для осуществления надлежащего надзора.
Microsoft изложила уроки своей программы Responsible AI, целью которой является обеспечение того, чтобы машины оставались под контролем человека. Подотчетность встроена в их структуру управления и Стандарт ответственного ИИ и включает в себя:
- Проведение оценки воздействия для выявления и устранения потенциального вреда.
- Дополнительный надзор за системами высокого риска.
- Документация, подтверждающая, что системы соответствуют назначению.
- Методы руководства и управления данными.
- Продвижение человеческого руководства и контроля.
- Microsoft рассказала, как она проводит «красную команду» для выявления потенциального вреда и сбоев, и публикует примечания о прозрачности для своих сервисов искусственного интеллекта. Новая поисковая система Microsoft Bing применяет этот подход ответственного ИИ.
Microsoft дала шесть рекомендаций по усилению подотчетности:
- Используйте структуру управления рисками ИИ NIST, чтобы ускорить использование механизмов подотчетности, таких как оценка воздействия и групповая работа, особенно для систем ИИ с высоким риском.
- Разработайте правовую и нормативную базу на основе стека технологий ИИ, включая требования к лицензированию для базовых моделей и поставщиков инфраструктуры.
- Повышайте прозрачность как средство обеспечения подотчетности, например, с помощью реестра систем искусственного интеллекта с высоким риском.
- Инвестируйте в наращивание потенциала законодателей и регулирующих органов, чтобы не отставать от разработок в области ИИ.
- Инвестируйте в исследования, чтобы улучшить контрольные показатели оценки ИИ, объяснимость, взаимодействие человека с компьютером и безопасность.
- Разрабатывайте и согласовывайте с международными стандартами для поддержки экосистемы обеспечения качества, включая стандарты ISO AI и стандарты происхождения контента.
- В целом Microsoft, похоже, готова сотрудничать с заинтересованными сторонами для разработки и внедрения эффективных подходов к ответственности ИИ.
Microsoft в целом, похоже, готова сотрудничать с заинтересованными сторонами для разработки и внедрения эффективных подходов к ответственности ИИ.
Письмо Google в NTIA
Google ответ приветствовала просьбу NTIA о комментариях по политикам подотчетности ИИ. Он признал необходимость как саморегулирования, так и управления для создания надежного ИИ.
Google подчеркнул свою собственную работу в области безопасности и этики ИИ, например, набор принципов ИИ, ориентированных на справедливость, безопасность, конфиденциальность и прозрачность. Google также внедрил внутри себя методы ответственного искусственного интеллекта, в том числе провел оценку рисков и оценку справедливости.
Google одобрил использование существующей нормативно-правовой базы, где это применимо, и вмешательств, основанных на оценке риска, для ИИ с высоким уровнем риска. Он рекомендовал использовать совместный, основанный на консенсусе подход к разработке технических стандартов.
Google согласился с тем, что такие механизмы подотчетности, как аудит, оценка и сертификация, могут обеспечить надежность систем искусственного интеллекта. Но он отметил, что эти механизмы сталкиваются с проблемами при реализации, в том числе с оценкой множества аспектов, влияющих на риски системы ИИ.
Google рекомендовал сосредоточить механизмы подотчетности на ключевых факторах риска и предложил использовать подходы, нацеленные на наиболее вероятные способы, которыми системы ИИ могут существенно повлиять на общество.
Google рекомендовал «звездообразную» модель регулирования ИИ, при которой отраслевые регуляторы контролируют внедрение ИИ под руководством центрального агентства, такого как NIST. Он поддержал разъяснение того, как существующие законы применяются к ИИ, и поощрение пропорциональных мер ответственности, основанных на риске, для ИИ с высоким риском.
Как и другие, Google считал, что для повышения ответственности ИИ потребуется сочетание саморегулирования, технических стандартов и ограниченной государственной политики, основанной на оценке рисков.
Антропное письмо в NTIA
антропный ответ описал убеждение в том, что для надежной экосистемы подотчетности ИИ требуются механизмы, адаптированные для моделей ИИ. Он выявил несколько проблем, в том числе сложность тщательной оценки систем ИИ и доступа к конфиденциальной информации, необходимой для аудита, без ущерба для безопасности.
Компания Anthropic поддержала финансирование следующего:
- Оценки моделей. Текущие оценки представляют собой неполную лоскутную работу и требуют специальных знаний. Он рекомендовал стандартизировать оценки возможностей, сосредоточив внимание на таких рисках, как обман и автономия.
- Исследование интерпретируемости: гранты и финансирование исследований интерпретируемости могут сделать модели более прозрачными и понятными. Тем не менее, правила, требующие интерпретируемости, в настоящее время неосуществимы.
- Предварительная регистрация больших учебных циклов ИИ: разработчики ИИ должны сообщать регулирующим органам о крупных учебных циклах, чтобы информировать их о новых рисках с соблюдением соответствующих мер защиты конфиденциальности.
- Внешняя красная команда: обязательное состязательное тестирование систем ИИ перед выпуском либо через централизованную организацию, такую как NIST, либо через доступ для исследователей. Однако в настоящее время талантливые специалисты работают в частных лабораториях искусственного интеллекта.
- Аудиторы с техническими знаниями, заботой о безопасности и гибкостью. Аудиторам необходим глубокий опыт машинного обучения для предотвращения утечек или взломов, но они также должны действовать в рамках ограничений, способствующих повышению конкурентоспособности.
- Компания Anthropic рекомендовала определить объем мер ответственности на основе возможностей модели и продемонстрированных рисков, оцененных с помощью целевых оценок возможностей. Он предложил уточнить рамки владения ИС для ИИ, чтобы обеспечить справедливое лицензирование, и предоставить рекомендации по антимонопольным вопросам, чтобы обеспечить сотрудничество в области безопасности.
- В целом, Anthropic подчеркнула трудности тщательной оценки и доступа к информации о передовых системах искусственного интеллекта из-за их конфиденциального характера. В нем утверждалось, что оценка возможностей финансирования, исследование интерпретируемости и доступ к вычислительным ресурсам имеют решающее значение для эффективной экосистемы подотчетности ИИ, которая приносит пользу обществу.
Что ожидать дальше
Ответы на запрос NTIA о комментариях показывают, что, хотя компании, занимающиеся искусственным интеллектом, признают важность подотчетности, все еще остаются открытые вопросы и проблемы, связанные с эффективным внедрением и масштабированием механизмов подотчетности.
Они также указывают на то, что как усилия компаний по саморегулированию, так и государственная политика будут играть роль в развитии надежной экосистемы подотчетности ИИ.
Ожидается, что в будущем в отчете NTIA будут даны рекомендации по развитию экосистемы подотчетности ИИ за счет использования и развития существующих усилий по саморегулированию, технических стандартов и государственной политики. Вклад заинтересованных сторон в процессе комментариев, вероятно, поможет сформировать эти рекомендации.
Однако внедрение рекомендаций в конкретные изменения политики и отраслевых практик, которые могут изменить способы разработки, развертывания и контроля ИИ, потребует координации между государственными учреждениями, технологическими компаниями, исследователями и другими заинтересованными сторонами.
Путь к зрелой подотчетности ИИ обещает быть долгим и трудным. Но эти начальные шаги показывают, что есть импульс для достижения этой цели.
Избранное изображение: EQRoy/Shutterstock