Более двух десятилетий Google работает с машинным обучением и искусственным интеллектом, чтобы сделать наши продукты более полезными. Искусственный интеллект помогал нашим пользователям каждый день: от умного написания писем в Gmail до поиска более быстрых маршрутов домой в Картах. ИИ также позволяет нам внести свой вклад в решение основных проблем, с которыми сталкивается каждый, будь то передовая медицина или найти более эффективные способы борьбы с изменением климата. Продолжая интегрировать искусственный интеллект, а в последнее время и генеративный искусственный интеллект, в новые возможности Google, мы понимаем, что крайне важно быть смелыми и ответственными вместе.

Встраивайте средства защиты в наши продукты с самого начала

Важной частью ответственного внедрения этой технологии является прогнозирование и тестирование широкого спектра рисков безопасности, включая те, которые представлены изображениями, созданными ИИ. Мы предпринимаем шаги по встроению защиты в наши возможности генеративного ИИ по умолчанию, руководствуясь нашими Принципы ИИ:

  • Защитите себя от несправедливых предубеждений: Мы разработали инструменты и наборы данных чтобы помочь выявить и смягчить несправедливую предвзятость в наших моделях машинного обучения. Это активная область исследований наших команд, и за последние несколько лет мы опубликовали несколько ключевых статей на эту тему. Мы также регулярно запрашиваем обратную связь от третьих лиц, чтобы помочь нам учитывать социальный контекст и оценивать наборы обучающих данных на предмет потенциальных источников несправедливой предвзятости.
  • Красная команда: Мы привлекаем внутренних и внешних экспертов для участия в программах красной команды, которые проверяют широкий спектр уязвимостей и потенциальных областей злоупотреблений, включая уязвимости кибербезопасности, а также более сложные социальные риски, такие как справедливость. Эти целенаправленные усилия по состязательному тестированию, в том числе наше участие в мероприятии DEF CON AI Village Red Team в августе прошлого года, помогают выявлять текущие и возникающие риски, поведение и нарушения политик, что позволяет нашим командам активно их смягчать.
  • Политика реализации: Используя наш обширный опыт разработки и технического применения политики, мы создали Политика запрещенного использования генеративного ИИ описание вредного, неприемлемого, вводящего в заблуждение или незаконного контента, использование которого нами не разрешено. Наша обширная система классификаторов затем используется для обнаружения, предотвращения и удаления контента, нарушающего эти политики. Например, если мы обнаружим несоответствующее приглашение или результат, наши продукты не дадут ответа, а также могут направить пользователя к дополнительным ресурсам для помощи по деликатным темам, например, связанным с небезопасными действиями или членовредительством. И мы постоянно совершенствуем наши модели, чтобы давать более уверенные ответы.
  • Защита подростков: По мере того, как мы постепенно расширяем доступ к генеративному опыту искусственного интеллекта, такому как SGE, для подростков, мы разработали дополнительные меры безопасности в отношении областей, которые могут представлять риск для молодых пользователей в зависимости от их потребностей в развитии. Это включает в себя ограничение результатов, связанных с такими темами, как издевательства и запрещенные вещества или вещества с возрастным ограничением.
  • Компенсация клиентам за авторские права: Мы ставим это жестко защита от компенсации на обучающих данных, используемых для генеративных моделей искусственного интеллекта, и результатах, полученных для пользователей основных сервисов Google Workspace и Google Cloud. Проще говоря: если к клиентам будут предъявлены претензии по поводу авторских прав, мы возьмем на себя ответственность за потенциальные юридические риски.
ЧИТАТЬ  Используйте креатив 4 x 5 для фидов.

Предоставление дополнительного контекста для результатов генеративного ИИ

Основываясь на нашей долгой истории предоставления контекста информации, которую люди находят в Интернете, мы добавляем новые инструменты, которые помогут людям оценить информацию, которую производят наши модели. Например, мы добавили «Об этом результате» в раздел «Генеративный искусственный интеллект в поиске», чтобы помочь пользователям оценить информацию, которую они находят во время работы. Мы также представили новые способы помочь людям проверить ответы, которые они видят в Bard.

Контекст особенно важен для изображений, и мы стремимся найти способы гарантировать, что каждое изображение, созданное с помощью наших продуктов, будет иметь теги метаданных и встроенный водяной знак с Идентификатор синтезатора. Кроме того, мы недавно обновили наш политика предвыборной рекламы требуют от рекламодателей сообщать, когда их предвыборная реклама содержит материалы, которые были изменены или созданы в цифровой форме. Это поможет предоставить дополнительный контекст людям, которые видят предвыборную рекламу на наших платформах.

Мы запустили Bard и SGE в качестве экспериментов, потому что понимаем, что эксперименты на основе моделей больших языков (LLM) в качестве новой технологии могут быть ошибочными, особенно когда речь идет о последних новостях. Мы всегда стремимся обновлять наши продукты по мере поступления дополнительной информации, и наши команды продолжают быстро внедрять любые необходимые улучшения.

Как мы защищаем вашу информацию

Новые технологии, естественно, вызывают вопросы, касающиеся конфиденциальности пользователей и личных данных. Мы создаем продукты и возможности искусственного интеллекта, которые по своей сути являются конфиденциальными. Многие из мер защиты конфиденциальности, которые мы применяли в течение многих лет, также применимы к нашим генеративным инструментам искусственного интеллекта, и, как и другие типы данных о деятельности в вашей учетной записи Google, мы упрощаем их приостановку, запись или удаление в любое время. в том числе для Бард И Исследовать.

ЧИТАТЬ  Откройте для себя различные варианты ухода за кожей и найдите тот, который подойдет именно вам - Zaturelle

Мы никогда и никому не продаем вашу личную информацию, в том числе в рекламных целях. давний Политика Google. Кроме того, мы внедрили меры защиты конфиденциальности, адаптированные к нашим продуктам с генеративным искусственным интеллектом. Например, если вы решите использовать расширения Workspace в Bard, ваш контент из Gmail, Docs и Drive не будет виден рецензентам, Bard не будет использоваться для показа вам рекламы и не будет использоваться для обучения модели Bard.

Сотрудничайте с заинтересованными сторонами для формирования будущего

ИИ поднимает сложные вопросы, на которые ни Google, ни любая другая компания не могут ответить в одиночку. Чтобы добиться успеха в области ИИ, нам необходимо сотрудничество между бизнесом, академическими исследователями, гражданским обществом, правительствами и другими заинтересованными сторонами. Мы уже ведем переговоры с такими группами, как Партнерство с искусственным интеллектом И ML Commonsи вместе с другими ведущими лабораториями искусственного интеллекта запустили форум Frontier Model Forum, чтобы способствовать ответственной разработке передовых моделей ИИ. А еще мы опубликовали десятки научных статей помочь поделиться нашим опытом с исследователями и промышленностью.

Мы также открыто говорим о нашей прогресс в выполнении обязательств мы достигли, включая те, которые мы добровольно сделано вместе с другими технологическими компаниями на саммите в Белом доме в начале этого года. Мы продолжим работать во всей отрасли, а также с правительствами, исследователями и другими людьми, чтобы использовать возможности и устранять риски, которые представляет ИИ.

Source