Мы гордимся тем, что сотрудничаем с другими ведущими компаниями в области искусственного интеллекта, чтобы совместно заниматься продвигать ответственные практики в развитии искусственного интеллекта. Сегодня сделан важный шаг в объединении отрасли, чтобы гарантировать, что ИИ поможет всем. Эти обязательства поддержат усилия G7, ОЭСР и национальных правительств по максимизации преимуществ ИИ и минимизации связанных с ним рисков.
Мы давно верим, что быть смелым в ИИ означает быть ответственным с самого начала. Вот как мы это делаем:
Содержание
Применение ИИ для решения самых больших проблем общества
Мы были функционирующий на ИИ более десятка лет, а в 2017 году переориентировалась на «компанию, управляемую ИИ». Сегодня искусственный интеллект обеспечивает Google Search, Translate, Maps и другие сервисы, которыми вы пользуетесь каждый день. И мы используем ИИ для решения социальных проблем — предсказывать наводнениясократить выбросы углерода за счет сокращения частых остановок, улучшить здравоохранение отвечая на клинические вопросы с точностью более 90% и помогая лечить и выявлять такие заболевания, как рак молочной железы.
Продвижение безопасных и надежных систем ИИ
Но ИИ недостаточно для предоставления более качественных услуг — мы также хотим использовать его, чтобы сделать эти услуги безопасными и надежными. Мы разрабатываем наши продукты так, чтобы они были безопасными по умолчанию, и наш подход к ИИ ничем не отличается. Недавно мы представили нашу Secure AI Framework (SAIF), чтобы помочь организациям защитить системы ИИ, и мы расширили наши программы поиска ошибок (включая нашу Программа вознаграждений за уязвимости) для поощрения исследований в области безопасности и защиты ИИ. Мы подвергаем наши модели перекрестному тестированию, чтобы снизить риски, а наша команда Google DeepMind совершенствует современные технологии в таких областях, как поддержка искусственного интеллекта. общаться более безопасно, предотвращать продвинутые модели от неправильного использования и проектирование систем, чтобы они были более этично и справедливо.
Мы полны решимости продолжать эту работу и участвовать в дальнейших учениях красной команды, в том числе в ДефКон в следующем месяце.
Укрепление доверия к системам ИИ
Мы понимаем, что иногда мощь новых инструментов искусственного интеллекта может усугубить текущие социальные проблемы, такие как дезинформация и несправедливая предвзятость. Именно поэтому в 2018 году мы выпустили набор Принципы ИИ для руководства нашей работой, и создали команда управления чтобы привести их в действие, проводя этические проверки новых систем, избегая предубеждений и интегрируя конфиденциальность, безопасность и безопасность. И наш Инструментарий ответственного ИИ также помогает разработчикам ответственно заниматься ИИ. Мы будем продолжать работать над укреплением доверия к системам ИИ, в том числе регулярно делиться отчеты о проделанной работе о нашей работе.
Что касается контента, мы предпринимаем шаги для продвижения достоверной информации. Мы скоро интегрируем водяной знак, метаданные и другие инновационные методы в наших последних генеративных моделях, а также добавление инструмента «Об этом изображении» в поиск Google, чтобы дать вам контекст о том, где изображение впервые появилось в Интернете. Для управления контентом, созданным с помощью ИИ, потребуются общеотраслевые решения, и мы рассчитываем на сотрудничество с другими, включая Партнерство для ИИ рабочая группа по синтетическим средам.
Создаем ответственный ИИ вместе
Никто из нас не может сделать ИИ в одиночку. Мы рады присоединиться к другим ведущим компаниям в области искусственного интеллекта, которые поддерживают эти обязательства, и мы намерены продолжать совместную работу, обмениваясь информацией и передовым опытом. группы, такие как Партнерство для ИИ И Общие ML уже возглавляют важные инициативы, и мы с нетерпением ожидаем дополнительных усилий по содействию ответственной разработке новых инструментов генеративного ИИ.