ИИ — это преобразующая технология. Даже после двух десятилетий беспрецедентных инноваций ИИ остается чем-то особенным и переломным моментом для людей во всем мире. Мы все чаще видим, как это может помочь ускорить разработку лекарств, улучшить потребление энергии, произвести революцию в кибербезопасности и улучшить доступность.
Продолжая расширять варианты использования и добиваться технических успехов, мы знаем, что как никогда важно обеспечить, чтобы наша работа не разрознена: промышленность, правительства, исследователи и гражданское общество должны вместе продемонстрировать смелость и ответственность. При этом мы можем расширять и обмениваться знаниями, определять способы смягчения возникающих рисков и предотвращения злоупотреблений, а также продолжать разрабатывать инструменты для повышения прозрачности контента для людей во всем мире.
Это был наш подход с самого начала, и сегодня мы хотели рассказать о некоторых партнерских отношениях, обязательствах и кодексах, в которых мы участвуем, чтобы понять потенциал ИИ и ответственно его формировать.
Коалиции, партнерства и отраслевые структуры
- Форум моделей Frontier: Google вместе с Anthropic, Microsoft и OpenAI запустила Форум моделей границ способствовать безопасной и ответственной разработке передовых моделей искусственного интеллекта. Партнеры форума вместе с партнерами-филантропами также пообещали выделить более 10 миллионов долларов в новый Фонд безопасности искусственного интеллекта для продвижения исследований в области непрерывной разработки инструментов, которые позволяют обществу тестировать и эффективно оценивать наиболее эффективные модели искусственного интеллекта.
- Партнерство по искусственному интеллекту (PAI): Мы внесли свой вклад в развитие ПАИкак часть сообщества экспертов, занимающихся продвижением ответственных методов разработки, создания и распространения ИИ, включая средства массовой информации, созданные с помощью генеративного ИИ.
- MLCommons: Мы являемся частью MLCommonsколлектив, целью которого является ускорение инноваций в машинном обучении и увеличение его положительного влияния на общество.
- Безопасная платформа искусственного интеллекта (САИФ): Мы представили структуру для безопасных систем искусственного интеллекта для снижения рисков, характерных для систем искусственного интеллекта, таких как кража весов моделей, отравление обучающих данных и внедрение вредоносных входных данных посредством быстрого внедрения, среди прочего. Наша цель — сотрудничать с отраслевыми партнерами для постепенного внедрения этой структуры.
- Коалиция за происхождение и подлинность контента (C2PA): Недавно мы присоединились к C2PA в качестве члена руководящего комитета. Коалиция представляет собой межотраслевую попытку обеспечить большую прозрачность и контекст для людей, использующих цифровой контент. Google поможет разработать свой технический стандарт и продолжит внедрение Content Credentials — защищенных от несанкционированного доступа метаданных, которые показывают, как контент создавался и изменялся с течением времени.
Наша работа с правительствами и гражданским обществом
- Добровольные обязательства Белого дома по ИИ: Наряду с другими компаниями в белый доммы совместно стремимся продвигать ответственные методы разработки и использования искусственного интеллекта, чтобы гарантировать, что ИИ помогает всем. И мы сделали значительный прогресс соблюдать наши обязательства.
- Кодекс поведения G7: Мы поддерживать Добровольный кодекс поведения G7, целью которого является продвижение безопасного, надежного и надежного ИИ во всем мире.
- Консорциум Американского института безопасности искусственного интеллекта: Мы участвуем в NIST Консорциум Института безопасности искусственного интеллектагде мы поделимся своим опытом, поскольку все мы работаем над продвижением безопасного и заслуживающего доверия искусственного интеллекта во всем мире.
- Британский институт безопасности искусственного интеллекта: ТО Британский институт безопасности искусственного интеллекта имеет доступ к некоторым из наших наиболее успешных моделей для исследований и обеспечения безопасности для развития долгосрочного опыта и возможностей. Мы активно работаем вместе над разработкой более надежных оценок моделей ИИ, а также над поиском консенсуса в отношении лучших практик по мере развития отрасли.
- Национальный ресурс по исследованиям искусственного интеллекта (НАИР) пилот: Мы вносим наши передовые инструменты, вычислительные ресурсы и ресурсы данных в пилотный проект NAIRR Национального научного фонда, целью которого является демократизация исследований в области искусственного интеллекта в Соединенных Штатах.
По мере расширения этих усилий мы будем обновлять этот список, чтобы отразить последнюю работу, которую мы проводим для сотрудничества, среди прочего, с промышленностью, правительствами и гражданским обществом.