Борьба с сексуальным насилием и эксплуатацией детей (CSAE) — чрезвычайно важная работа для Google. Мы вложили значительные ресурсы в создание технологий обнаружения, обучение специализированных групп и поддержку усилий отрасли по прекращению распространения этого вредоносного контента.
Сегодня мы объявляем о нашей приверженности Безопасность благодаря принципам проектирования генеративного искусственного интеллекта — разработано Thorn и All Tech is Human. Эти меры по смягчению последствий дополняют нашу существующую работу по предотвращению создания, распространения и пропаганды сексуального насилия и эксплуатации детей, созданных с помощью ИИ. Мы гордимся тем, что взяли на себя это добровольное обязательство — вместе с нашими коллегами по отрасли — помочь максимально затруднить злоумышленникам злоупотребление генеративным искусственным интеллектом для создания контента, который изображает или изображает сексуальное насилие над детьми.
Этот шаг последовал за нашим недавним объявлением о том, что мы предоставим рекламное пространство Министерству внутренней безопасности США. Знать2Защитить кампания — и увеличение нашей поддержки рекламных грантов Национальному центру по делам пропавших и эксплуатируемых детей (NCMEC) к его 40-летию, а также для продвижения их Нет квест-комнаты инициатива. Поддержка этих кампаний необходима для повышения осведомленности и предоставления детям и родителям инструментов для выявления случаев насилия и сообщения о них.
Защита детей в Интернете имеет первостепенное значение, и по мере развития ИИ мы знаем, что эту работу нельзя выполнять в изоляции: мы обязаны сотрудничать с другими представителями отрасли и гражданским обществом, чтобы обеспечить наличие соответствующих мер защиты. В дополнение к этим объявлениям сегодня мы делимся более подробной информацией о наших средствах защиты детей с помощью искусственного интеллекта и нашей недавней работе с НПО.
Как мы боремся с CSAM, создаваемым ИИ, на наших платформах
Во всех наших продуктах мы активно обнаруживаем и удаляем CSAE, используя комбинацию технологии сопоставления хэшей, классификаторов искусственного интеллекта и проверок, проводимых людьми. Наши политики и средства защиты предназначены для обнаружения всех типов CSAE, включая CSAM, созданный искусственным интеллектом. Когда мы выявляем вредоносный контент, мы удаляем его и принимаем соответствующие меры, в том числе сообщаем о нем в NCMEC.
В соответствии с нашим Принципы ИИМы работаем над усилением безопасности и активно внедряем меры защиты от рисков безопасности детей, чтобы бороться с созданием материалов о сексуальном насилии над детьми (CSAM), генерируемых ИИ, в том числе:
- Наборы обучающих данных: Мы интегрируем как сопоставление хэшей, так и классификаторы безопасности детей, чтобы удалить CSAM, а также другой эксплуататорский и незаконный контент из наших наборов обучающих данных.
- Определение поисковых запросов CSAE: Мы используем наше машинное обучение, чтобы идентифицировать поисковые запросы CSAE и не давать им выдавать результаты, которые могут использовать или сексуализировать детей.
- Противоречивые тесты: Мы проводим состязательное тестирование текста, изображений, видео и аудио на безопасность детей для выявления потенциальных рисков и нарушений.
- Нанять экспертов: У нас есть Программа приоритетного флага где мы работаем со сторонними экспертами, которые отмечают потенциально насильственный контент, в том числе ради безопасности детей, для проверки нашими командами.
Как мы сотрудничаем с экспертами по безопасности детей и отраслевыми партнерами
За последнее десятилетие мы тесно сотрудничали с экспертами по безопасности детей, включая НПО, коллегами из отрасли и правоохранительными органами, чтобы ускорить борьбу с контентом CSAE. Наша последняя поддержка NCMEC основана на прошлом сотрудничестве, включая разработку Выделенный API определять приоритетность новых отчетов CSAM и поддерживать работу правоохранительных органов.
Кроме того, в Google есть группа специалистов, которая помогает нам выявлять случаи, когда помеченный контент указывает на то, что ребенок может находиться в активной опасности. Затем эта группа уведомляет NCMEC о срочности отчета, чтобы направить его в местные правоохранительные органы для дальнейшего расследования. Мы гордимся тем, что эта работа способствовала успешное спасение детей во всем мире.
Это сотрудничество продолжает служить основой нашей поддержки промышленные партнеры и инновации, подобные нашим Набор инструментов по безопасности детей. Мы бесплатно лицензируем набор инструментов, чтобы помочь другим организациям выявлять и помечать миллиарды потенциально оскорбительного контента для проверки каждый месяц.
Как мы продолжаем поддерживать ужесточение законодательства
Мы активно работаем над этой темой с законодателями и сторонними экспертами для достижения нашей общей цели: защиты детей в Интернете. Вот почему в этом году мы объявили о нашей решительной поддержке нескольких важных двухпартийных законопроектов в Соединенных Штатах, включая Закон об инвестициях в безопасность детей, Закон о проекте «Безопасное детство», Закон об отчетах, Закон о щите и Закон о STOP CSAM.
Эта работа продолжается, и мы продолжим расширять наши усилия, в том числе работу с другими участниками экосистемы, чтобы защитить детей и предотвратить неправомерное использование технологий для их эксплуатации.