Искусственный интеллект может помочь в решении самых разных задач: от повседневных до экстраординарных, от подсчета цифр до лечения болезней. Но единственный способ использовать долгосрочный потенциал ИИ — это ответственно подходить к его созданию.
Вот почему разговор о генеративном искусственном интеллекте и конфиденциальности так важен – и почему мы хотим поддержать этот диалог идеями с передовой линии инноваций и нашим глубоким взаимодействием с регулирующими органами и другими экспертами.
В нашем новом документе для обсуждения политики «Генераторный искусственный интеллект и конфиденциальность» мы утверждаем, что продукты искусственного интеллекта должны иметь встроенные средства защиты, которые с самого начала обеспечивают безопасность и конфиденциальность пользователей. И мы рекомендуем политические подходы, которые решают проблемы конфиденциальности и одновременно раскрывают преимущества ИИ.
Содержание
Конфиденциальность в AI
ИИ обещает выгоды отдельным людям и обществу, но он также может усугубить существующие социальные проблемы и создать новые, такие как наше собственное исследование и мнение других подчеркивало это.
То же самое касается конфиденциальности. Важно создать средства защиты, обеспечивающие прозрачность и контроль, а также устраняющие такие риски, как случайная утечка личной информации.
Для этого требуется прочная основа от разработки до развертывания, основанная на устоявшихся принципах. Любая организация, разрабатывающая инструменты искусственного интеллекта, должна четко понимать свой подход к конфиденциальности.
Мы руководствуемся давними практиками защиты данных, Принципы конфиденциальности и безопасности, Ответственные практики искусственного интеллекта и наши принципы искусственного интеллекта. Это означает, что мы внедряем надежные методы защиты конфиденциальности и минимизации данных, обеспечиваем прозрачность в отношении практики использования данных и предоставляем средства контроля, которые позволяют пользователям делать осознанный выбор и управлять своей информацией.
Сосредоточьтесь на приложениях искусственного интеллекта для эффективного снижения рисков
Есть закономерные вопросы, которые стоит изучить, поскольку мы применяем некоторые устоявшиеся принципы конфиденциальности к генеративному ИИ.
Что на практике означает минимизация данных при обучении моделей на больших объемах данных? Каковы эффективные способы обеспечения значимой прозрачности сложных моделей для решения индивидуальных проблем? Как мы можем предоставить опыт, соответствующий возрасту, который принесет пользу подросткам в мире, использующем инструменты искусственного интеллекта?
Наша статья предлагает некоторые первоначальные мысли для этих разговоров, рассматривая два различных этапа моделей:
- Тренировка и развитие
- Пользовательские приложения
Во время обучения и развития личные данные, такие как имена или биографические данные, составляют небольшую, но важную часть данных обучения. Модели используют эти данные, чтобы выяснить, как язык объединяет абстрактные концепции об отношениях между людьми и нашим миром.
Эти модели не являются «базами данных» и не предназначены для идентификации отдельных лиц. Фактически, включение личных данных действительно может помочь уменьшить предвзятость в моделях (например, как понять названия разных культур по всему миру) и повысить точность и производительность.
Именно на уровне приложений мы видим как больший потенциал нарушений конфиденциальности, таких как утечка личных данных, так и возможность создать более эффективные меры защиты. Здесь важную роль играют такие функции, как выходные фильтры и автоматическое удаление.
Приоритизация этих мер безопасности на уровне приложений — это не только наиболее осуществимый подход, но и, по нашему мнению, наиболее эффективный.
Обеспечение конфиденциальности посредством инноваций
Большинство текущих дискуссий о конфиденциальности ИИ сосредоточены на снижении рисков, и это правильно, учитывая работу, необходимую для укрепления доверия к ИИ. Тем не менее, генеративный искусственный интеллект также предлагает большой потенциал для улучшения конфиденциальности пользователей, и мы также должны воспользоваться этими важными возможностями.
Генеративный ИИ уже помогает организациям понимать комментарии о конфиденциальности для большого количества пользователей и идентифицировать вопросы соблюдения конфиденциальности. ИИ обеспечивает новое поколение киберзащиты. Технологии повышения конфиденциальности, такие как синтетические данные и дифференцированная конфиденциальность, проливают свет на способы, с помощью которых мы можем принести большую пользу обществу, не раскрывая личную информацию. Государственная политика и отраслевые стандарты должны поощрять, а не непреднамеренно ограничивать такое положительное использование.
Необходимость работать вместе
Законы о конфиденциальности должны быть адаптивными, пропорциональными и технологически нейтральными. На протяжении многих лет именно это сделало их устойчивыми и долговечными.
То же самое верно и в эпоху искусственного интеллекта, поскольку заинтересованные стороны стремятся сбалансировать надежную защиту конфиденциальности с другими фундаментальными правами и социальными целями.
Предстоящая работа потребует сотрудничества всего сообщества, занимающегося конфиденциальностью, и Google стремится работать с другими, чтобы гарантировать, что генеративный ИИ ответственно приносит пользу обществу.
Прочтите наш документ для обсуждения политики в области генеративного искусственного интеллекта и конфиденциальности. здесь.