Более двух десятилетий Google работает с машинным обучением и искусственным интеллектом, чтобы сделать наши продукты более полезными. Искусственный интеллект помогал нашим пользователям каждый день: от умного написания писем в Gmail до поиска более быстрых маршрутов домой в Картах. ИИ также позволяет нам внести свой вклад в решение основных проблем, с которыми сталкивается каждый, будь то передовая медицина или найти более эффективные способы борьбы с изменением климата. Продолжая интегрировать искусственный интеллект, а в последнее время и генеративный искусственный интеллект, в новые возможности Google, мы понимаем, что крайне важно быть смелыми и ответственными вместе.
Содержание
Встраивайте средства защиты в наши продукты с самого начала
Важной частью ответственного внедрения этой технологии является прогнозирование и тестирование широкого спектра рисков безопасности, включая те, которые представлены изображениями, созданными ИИ. Мы предпринимаем шаги по встроению защиты в наши возможности генеративного ИИ по умолчанию, руководствуясь нашими Принципы ИИ:
- Защитите себя от несправедливых предубеждений: Мы разработали инструменты и наборы данных чтобы помочь выявить и смягчить несправедливую предвзятость в наших моделях машинного обучения. Это активная область исследований наших команд, и за последние несколько лет мы опубликовали несколько ключевых статей на эту тему. Мы также регулярно запрашиваем обратную связь от третьих лиц, чтобы помочь нам учитывать социальный контекст и оценивать наборы обучающих данных на предмет потенциальных источников несправедливой предвзятости.
- Красная команда: Мы привлекаем внутренних и внешних экспертов для участия в программах красной команды, которые проверяют широкий спектр уязвимостей и потенциальных областей злоупотреблений, включая уязвимости кибербезопасности, а также более сложные социальные риски, такие как справедливость. Эти целенаправленные усилия по состязательному тестированию, в том числе наше участие в мероприятии DEF CON AI Village Red Team в августе прошлого года, помогают выявлять текущие и возникающие риски, поведение и нарушения политик, что позволяет нашим командам активно их смягчать.
- Политика реализации: Используя наш обширный опыт разработки и технического применения политики, мы создали Политика запрещенного использования генеративного ИИ описание вредного, неприемлемого, вводящего в заблуждение или незаконного контента, использование которого нами не разрешено. Наша обширная система классификаторов затем используется для обнаружения, предотвращения и удаления контента, нарушающего эти политики. Например, если мы обнаружим несоответствующее приглашение или результат, наши продукты не дадут ответа, а также могут направить пользователя к дополнительным ресурсам для помощи по деликатным темам, например, связанным с небезопасными действиями или членовредительством. И мы постоянно совершенствуем наши модели, чтобы давать более уверенные ответы.
- Защита подростков: По мере того, как мы постепенно расширяем доступ к генеративному опыту искусственного интеллекта, такому как SGE, для подростков, мы разработали дополнительные меры безопасности в отношении областей, которые могут представлять риск для молодых пользователей в зависимости от их потребностей в развитии. Это включает в себя ограничение результатов, связанных с такими темами, как издевательства и запрещенные вещества или вещества с возрастным ограничением.
- Компенсация клиентам за авторские права: Мы ставим это жестко защита от компенсации на обучающих данных, используемых для генеративных моделей искусственного интеллекта, и результатах, полученных для пользователей основных сервисов Google Workspace и Google Cloud. Проще говоря: если к клиентам будут предъявлены претензии по поводу авторских прав, мы возьмем на себя ответственность за потенциальные юридические риски.
Предоставление дополнительного контекста для результатов генеративного ИИ
Основываясь на нашей долгой истории предоставления контекста информации, которую люди находят в Интернете, мы добавляем новые инструменты, которые помогут людям оценить информацию, которую производят наши модели. Например, мы добавили «Об этом результате» в раздел «Генеративный искусственный интеллект в поиске», чтобы помочь пользователям оценить информацию, которую они находят во время работы. Мы также представили новые способы помочь людям проверить ответы, которые они видят в Bard.
Контекст особенно важен для изображений, и мы стремимся найти способы гарантировать, что каждое изображение, созданное с помощью наших продуктов, будет иметь теги метаданных и встроенный водяной знак с Идентификатор синтезатора. Кроме того, мы недавно обновили наш политика предвыборной рекламы требуют от рекламодателей сообщать, когда их предвыборная реклама содержит материалы, которые были изменены или созданы в цифровой форме. Это поможет предоставить дополнительный контекст людям, которые видят предвыборную рекламу на наших платформах.
Мы запустили Bard и SGE в качестве экспериментов, потому что понимаем, что эксперименты на основе моделей больших языков (LLM) в качестве новой технологии могут быть ошибочными, особенно когда речь идет о последних новостях. Мы всегда стремимся обновлять наши продукты по мере поступления дополнительной информации, и наши команды продолжают быстро внедрять любые необходимые улучшения.
Как мы защищаем вашу информацию
Новые технологии, естественно, вызывают вопросы, касающиеся конфиденциальности пользователей и личных данных. Мы создаем продукты и возможности искусственного интеллекта, которые по своей сути являются конфиденциальными. Многие из мер защиты конфиденциальности, которые мы применяли в течение многих лет, также применимы к нашим генеративным инструментам искусственного интеллекта, и, как и другие типы данных о деятельности в вашей учетной записи Google, мы упрощаем их приостановку, запись или удаление в любое время. в том числе для Бард И Исследовать.
Мы никогда и никому не продаем вашу личную информацию, в том числе в рекламных целях. давний Политика Google. Кроме того, мы внедрили меры защиты конфиденциальности, адаптированные к нашим продуктам с генеративным искусственным интеллектом. Например, если вы решите использовать расширения Workspace в Bard, ваш контент из Gmail, Docs и Drive не будет виден рецензентам, Bard не будет использоваться для показа вам рекламы и не будет использоваться для обучения модели Bard.
Сотрудничайте с заинтересованными сторонами для формирования будущего
ИИ поднимает сложные вопросы, на которые ни Google, ни любая другая компания не могут ответить в одиночку. Чтобы добиться успеха в области ИИ, нам необходимо сотрудничество между бизнесом, академическими исследователями, гражданским обществом, правительствами и другими заинтересованными сторонами. Мы уже ведем переговоры с такими группами, как Партнерство с искусственным интеллектом И ML Commonsи вместе с другими ведущими лабораториями искусственного интеллекта запустили форум Frontier Model Forum, чтобы способствовать ответственной разработке передовых моделей ИИ. А еще мы опубликовали десятки научных статей помочь поделиться нашим опытом с исследователями и промышленностью.
Мы также открыто говорим о нашей прогресс в выполнении обязательств мы достигли, включая те, которые мы добровольно сделано вместе с другими технологическими компаниями на саммите в Белом доме в начале этого года. Мы продолжим работать во всей отрасли, а также с правительствами, исследователями и другими людьми, чтобы использовать возможности и устранять риски, которые представляет ИИ.