Одним из наиболее очевидных преимуществ искусственного интеллекта (ИИ) является его потенциал повышения кибербезопасности организаций и пользователей Интернета по всему миру. Это особенно актуально, поскольку злоумышленники продолжают атаковать и эксплуатировать критически важное программное обеспечение и системы. Достижения в области искусственного интеллекта изменят эту динамику, и ответственное применение искусственного интеллекта может помочь продвинуть отрасль к более безопасной архитектуре для цифрового мира.
Опыт также показывает нам, что достижение этой цели требует тесного сотрудничества между государственным и частным секторами, а также инновационных возможностей, таких как DARPA AI Cyber Challenge (AIxCC) Полуфиналы турнира DEF CON 32 в Лас-Вегасе 8-11 августа. Этот двухлетний конкурс объединяет исследователей искусственного интеллекта и кибербезопасности для создания новых инструментов искусственного интеллекта для защиты крупных проектов с открытым исходным кодом.
Это первый конкурс конкурса, запущенного DARPA. объявление на прошлогоднем Black Hat. Полуфинал конкурса состоится сразу после годовщины Добровольные обязательства Белого дома в области ИИ – где промышленность и правительство объединились, чтобы договориться о продвижении ответственных методов разработки и использования ИИ. Сегодня мы поделимся тем, как Google поддерживает Конкуренты AIxCC на этом пути:
- Ресурсы Google Cloud: Чтобы конкуренты могли добиться успеха, Google предлагает каждой квалифицированной команде AIxCC 5000 долларов США в виде кредитов Google Cloud, что в общей сложности составит 1 миллион долларов США. Участники могут использовать эти кредиты для соответствующих критериям сервисов Google Cloud, включая Gemini. Это означает, что участники получат доступ к моделям искусственного интеллекта и машинного обучения Google Cloud, которые они смогут использовать и развивать для различных задач во время соревнования. Мы также призываем участников воспользоваться нашими программами стимулирования, такими как программа Google for Startups, которая покрывает расходы на Google Cloud до 350 000 долларов США для стартапов в области искусственного интеллекта.
- Эксперты по кибербезопасности: Google уже много лет является пионером в использовании искусственного интеллекта для обеспечения безопасности, будь то расширенное обнаружение угроз или защита пользователей Gmail от фишинга. Мы увидели потенциал искусственного интеллекта для обеспечения безопасности и с нетерпением ждем возможности поделиться с AIxCC тем, что мы узнали, предоставив нашим экспертам по безопасности доступ к нам на протяжении всего проекта. Эксперты по безопасности Google смогут дать рекомендации по проектам и инфраструктуре, а также помочь разработать основу для оценки участников. Чтобы начать соревнование, мы опубликовали гид о том, как ИИ может улучшить технологию Google OSS-Fuzz с открытым исходным кодом, в которой конкретно представлены рекомендуемые подходы для AIxCC.
- Опыт AIxCC на DEF CON: На следующей неделе мы будем на полуфинале AIxCC на DEF CON, где будет представлена хакерская демонстрация, ориентированная на искусственный интеллект, и практические демонстрации, демонстрирующие технологию искусственного интеллекта Google. На стенде Google также будут представлены Chromebook для демонстрации наших технологий искусственного интеллекта, включая Google Security Operations и SecLM. Эксперты Google по безопасности будут готовы поделиться своими знаниями и принять участие в технических дискуссиях с участниками.
Деревня ИИ на DEF CON 32
В дополнение к нашему сотрудничеству с AIxCC, Google продолжит поддерживать AI Village DEF CON, которая обучает участников вопросам безопасности и конфиденциальности ИИ. В этом году Google пожертвовала 10 000 долларов Деревне и предоставит участникам семинара Pixelbooks, чтобы они могли получить практический опыт на стыке искусственного интеллекта и кибербезопасности. AI Village возвращается после прошлогоднего успеха Событие Красной команды AI Villageв котором участвовала компания Google, а специалисты по безопасности работали над проблемами безопасности ИИ.
Нам не терпится узнать о новых инновациях полуфинала AIxCC и рассказать вам, как их можно применить для защиты программного обеспечения, на которое мы все полагаемся. А пока вы можете узнать больше о нашей работе в области безопасности ИИ с помощью Secure AI Framework и недавно объявленной Коалиции за безопасный ИИ.