Эксперты по искусственному интеллекту предлагают рекомендации для безопасных систем искусственного интеллекта
Искусственный интеллект (ИИ) — это мощная технология, которая может выполнять задачи, которые обычно требуют человеческого интеллекта, такие как распознавание изображений, понимание речи, принятие решений и обучение на основе данных. ИИ имеет много потенциальных преимуществ для общества, таких как улучшение здравоохранения, образования, транспорта и развлечений. Однако ИИ создает проблемы и риски, такие как этические дилеммы, нарушения конфиденциальности, предвзятость, дискриминация и угрозы безопасности.
Чтобы решить эти проблемы и риски, глобальная группа экспертов по искусственному интеллекту и специалистов по данным выпустила новую добровольную основу для безопасной разработки продуктов искусственного интеллекта. Всемирный фонд этических данных (WEDF) насчитывает 25 000 членов, включая сотрудников таких технологических гигантов, как Meta, Google и Samsung. Структура содержит 84 вопроса, которые разработчики должны рассмотреть в начале проекта ИИ. WEDF также приглашает общественность задавать свои вопросы. В нем говорится, что все они будут рассмотрены на следующей ежегодной конференции.
Фреймворк был выпущен в виде открытого письма, что, по-видимому, является предпочтительным форматом сообщества ИИ. У него сотни подписей. В письме говорится:
Мы считаем, что искусственный интеллект может принести пользу во всем мире, но только в том случае, если он будет разрабатываться и внедряться ответственно и с соблюдением этических норм. Мы признаем, что системы искусственного интеллекта могут оказывать значительное положительное и отрицательное влияние на отдельных людей, сообщества и общество. Мы также признаем, что системы искусственного интеллекта могут подвергаться неправильному использованию, злоупотреблениям и непредвиденным последствиям. Поэтому мы предлагаем набор рекомендаций для разработчиков ИИ, которым необходимо следовать, чтобы их продукты были безопасными, надежными и полезными для всех.
Руководящие принципы основаны на четырех основных принципах: уважение человеческого достоинства и автономии, справедливость и справедливость, прозрачность и подотчетность, безопасность и защищенность. Рекомендации охватывают различные аспекты жизненного цикла ИИ, такие как сбор, обработка, анализ, моделирование, тестирование, развертывание, мониторинг и оценка данных.
Вот некоторые из 84 вопросов:
Чувствую ли я, что меня торопят или заставляют вводить данные из сомнительных источников?
Работает ли команда над отбором обучающих данных из разных источников и опыта, чтобы помочь уменьшить систематическую ошибку при выборе данных?
Каково предполагаемое использование модели после ее обучения?
Как я могу убедиться, что модель не дискриминирует и не наносит вред какой-либо группе или отдельному лицу?
Как я буду сообщать об ограничениях и неопределенностях модели пользователям и заинтересованным сторонам?
Как я буду отслеживать производительность и влияние модели после развертывания?
Как я буду обрабатывать отзывы и жалобы пользователей и заинтересованных сторон?
Как мне обновить или удалить модель, если она устарела или стала вредной?
WEDF надеется, что эта структура поможет повысить осведомленность и способствовать диалогу между разработчиками ИИ и другими заинтересованными сторонами об этических последствиях их работы. WEDF надеется, что эта структура вдохновит другие инициативы и стандарты для продвижения этической разработки и управления ИИ.
Структура появляется, когда ИИ становится более распространенным и влиятельным в различных областях и секторах. Это также происходит, когда правительства и регулирующие органы все больше обеспокоены потенциальным вредом и проблемами ИИ. Например, на этой неделе теневой министр внутренних дел Иветт Купер заявила, что Лейбористская партия привлечет к уголовной ответственности тех, кто преднамеренно использует инструменты ИИ в террористических целях. Премьер-министр Риши Сунак назначил Яна Хогарта, технологического предпринимателя и инвестора в области ИИ, руководителем целевой группы по ИИ. На этой неделе г-н Хогарт сказал мне, что хочет «лучше понять риски, связанные с этими передовыми системами искусственного интеллекта», и привлечь к ответственности компании, которые их разрабатывают.
WEDF признает, что его структура должна быть всеобъемлющим или окончательным решением всех этических проблем, связанных с ИИ. Он также признает, что его структура может нуждаться в пересмотре и обновлении по мере развития технологии ИИ и появления новых проблем. Тем не менее, он считает, что его структура является полезной отправной точкой для создания культуры ответственности и этики среди разработчиков ИИ.
Как сказал один из подписавших письмо: «Мы находимся на стадии Дикого Запада, где все просто: «Выбросьте это на улицу и посмотрите, что из этого получится». Нам нужно руководство, чтобы убедиться, что мы все делаем правильно».