Форум AI Insight в Сенате США обсудил решения по обеспечению безопасности ИИ, в том числе то, как определить, кто виноват в вредных результатах ИИ, и как установить ответственность за этот вред. Комитет заслушал решение с точки зрения сообщества искусственного интеллекта с открытым исходным кодом, представленное президентом Mozilla Foundation Марком Сурманом.
До сих пор на сенатском форуме AI Insight Forum доминировали доминирующие корпоративные стражи искусственного интеллекта, Google, Meta, Microsoft и OpenAI.
Как следствие, большая часть дискуссий ведется с их точки зрения.
Первый форум AI Insight Forum, состоявшийся 13 сентября 2023 года, подвергся критике со стороны сенатора Элизабет Уоррен (демократ от штата Массачусетс) за то, что он представлял собой встречу за закрытыми дверями, на которой доминировали корпоративные технологические гиганты, которые больше всего могут выиграть от влияния на выводы комитета.
Среда предоставила сообществу открытого исходного кода шанс предложить свою точку зрения на то, как должно выглядеть регулирование.
Марк Сурман, президент Mozilla Foundation
Фонд Mozilla — это некоммерческая организация, призванная поддерживать открытость и доступность Интернета. Недавно она стала одним из вкладчиков в фонд стоимостью 200 миллионов долларов для поддержки коалиции общественных интересов, занимающейся продвижением ИИ на благо общества. Фонд Mozilla также создал Mozilla.ai, который развивает экосистему искусственного интеллекта с открытым исходным кодом.
Выступление Марка Сурмана на сенатском форуме сосредоточилось на пяти пунктах:
- Стимулирование открытости и прозрачности
- Справедливое распределение ответственности
- Защита конфиденциальности по умолчанию
- Инвестиции в технологии повышения конфиденциальности
- Справедливое распределение ответственности
Из этих пяти пунктов особенно интересен пункт о распределении ответственности, поскольку он дает советы о том, как определить, кто виноват, когда с ИИ что-то пойдет не так, и возложить ответственность на виновную сторону.
Проблема выявления виновных не так проста, как кажется на первый взгляд.
Заявление Mozilla объяснило этот момент:
«Сложность систем искусственного интеллекта требует детального подхода к ответственности, который учитывает всю цепочку создания стоимости, от сбора данных до развертывания модели.
Ответственность должна быть не концентрированной, а скорее распределенной таким образом, чтобы отражать то, как ИИ разрабатывается и выводится на рынок.
Вместо того, чтобы просто смотреть на тех, кто применяет эти модели, которые зачастую не в состоянии смягчить основные причины потенциального вреда, более целостный подход мог бы регулировать практики и процессы во всем «стеке» разработки».
Стек разработки — это ссылка на технологии, которые совместно создают ИИ, включая данные, используемые для обучения базовых моделей.
В комментариях Сурмана использовался пример чат-бота, предлагающего медицинские консультации на основе модели, созданной другой компанией, а затем доработанной медицинской компанией.
Кто должен нести ответственность, если чат-бот предлагает вредные советы? Компания, разработавшая технологию, или компания, доработавшая модель?
В заявлении Сурмана поясняется далее:
«Наша работа над Законом ЕС об искусственном интеллекте в последние годы показала, насколько сложно выявить виновных и возложить ответственность на всю цепочку создания стоимости искусственного интеллекта.
От наборов обучающих данных до базовых моделей и приложений, использующих одну и ту же модель, риски могут возникать на разных этапах и уровнях в ходе разработки и развертывания.
В то же время речь идет не только о том, откуда исходит вред, но и о том, кто лучше всего может его смягчить».
Система наложения ответственности за вред, причиненный ИИ
В заявлении Сурмана комитету Сената подчеркивается, что любая структура, разработанная для определения того, какая организация несет ответственность за ущерб, должна учитывать всю цепочку развития.
Он отмечает, что это включает в себя не только рассмотрение каждого уровня стека разработки, но и того, как используется технология, причем дело в том, что тот, кто несет ответственность, зависит от того, кто лучше всего способен смягчить этот ущерб с точки зрения того, что Сурман называет « цепочка значений.»
Это означает, что если продукт ИИ вызывает галлюцинации (что означает ложь и придумывание ложных фактов), лучше всего смягчить этот вред сможет тот, кто создал основополагающую модель, и, в меньшей степени, тот, кто точно настраивает и развертывает эту модель.
Сурман завершил этот момент, сказав:
«Любая система наложения ответственности должна учитывать эту сложность.
Для этого необходим четкий процесс.
Таким образом, регулирование должно способствовать обнаружению и уведомлению о вреде (независимо от стадии, на которой он может проявиться), выявлению его коренных причин (что потребует технических достижений, когда речь идет о моделях трансформаторов), а также механизму, позволяющему привлечь к ответственности тех, кто несет ответственность за устранение или неустранение коренных причин этих событий».
Кто несет ответственность за вред, причиненный ИИ?
Президент Mozilla Foundation Марк Сурман поднимает прекрасные вопросы о том, как должно выглядеть будущее регулирования. Он обсудил вопросы конфиденциальности, которые важны.
Но особый интерес представляет вопрос ответственности и уникальные советы, которые помогут определить, кто несет ответственность, если ИИ пойдет не так.
Прочтите официальное сообщение в блоге Mozilla:
Mozilla присоединяется к последнему форуму AI Insight
Прочтите комментарии президента Mozilla Марка Сурмана на форуме AI Insight в Сенате:
Форум AI Insight: Конфиденциальность и ответственность (PDF)
Рекомендованное изображение: Shutterstock/Рон Адар