Борьба с сексуальным насилием и эксплуатацией детей (CSAE) — чрезвычайно важная работа для Google. Мы вложили значительные ресурсы в создание технологий обнаружения, обучение специализированных групп и поддержку усилий отрасли по прекращению распространения этого вредоносного контента.

Сегодня мы объявляем о нашей приверженности Безопасность благодаря принципам проектирования генеративного искусственного интеллекта — разработано Thorn и All Tech is Human. Эти меры по смягчению последствий дополняют нашу существующую работу по предотвращению создания, распространения и пропаганды сексуального насилия и эксплуатации детей, созданных с помощью ИИ. Мы гордимся тем, что взяли на себя это добровольное обязательство — вместе с нашими коллегами по отрасли — помочь максимально затруднить злоумышленникам злоупотребление генеративным искусственным интеллектом для создания контента, который изображает или изображает сексуальное насилие над детьми.

Этот шаг последовал за нашим недавним объявлением о том, что мы предоставим рекламное пространство Министерству внутренней безопасности США. Знать2Защитить кампания — и увеличение нашей поддержки рекламных грантов Национальному центру по делам пропавших и эксплуатируемых детей (NCMEC) к его 40-летию, а также для продвижения их Нет квест-комнаты инициатива. Поддержка этих кампаний необходима для повышения осведомленности и предоставления детям и родителям инструментов для выявления случаев насилия и сообщения о них.

Защита детей в Интернете имеет первостепенное значение, и по мере развития ИИ мы знаем, что эту работу нельзя выполнять в изоляции: мы обязаны сотрудничать с другими представителями отрасли и гражданским обществом, чтобы обеспечить наличие соответствующих мер защиты. В дополнение к этим объявлениям сегодня мы делимся более подробной информацией о наших средствах защиты детей с помощью искусственного интеллекта и нашей недавней работе с НПО.

Как мы боремся с CSAM, создаваемым ИИ, на наших платформах

Во всех наших продуктах мы активно обнаруживаем и удаляем CSAE, используя комбинацию технологии сопоставления хэшей, классификаторов искусственного интеллекта и проверок, проводимых людьми. Наши политики и средства защиты предназначены для обнаружения всех типов CSAE, включая CSAM, созданный искусственным интеллектом. Когда мы выявляем вредоносный контент, мы удаляем его и принимаем соответствующие меры, в том числе сообщаем о нем в NCMEC.

ЧИТАТЬ  Как продвинуть сайт в интернете с помощью рекламы

В соответствии с нашим Принципы ИИМы работаем над усилением безопасности и активно внедряем меры защиты от рисков безопасности детей, чтобы бороться с созданием материалов о сексуальном насилии над детьми (CSAM), генерируемых ИИ, в том числе:

  • Наборы обучающих данных: Мы интегрируем как сопоставление хэшей, так и классификаторы безопасности детей, чтобы удалить CSAM, а также другой эксплуататорский и незаконный контент из наших наборов обучающих данных.
  • Определение поисковых запросов CSAE: Мы используем наше машинное обучение, чтобы идентифицировать поисковые запросы CSAE и не давать им выдавать результаты, которые могут использовать или сексуализировать детей.
  • Противоречивые тесты: Мы проводим состязательное тестирование текста, изображений, видео и аудио на безопасность детей для выявления потенциальных рисков и нарушений.
  • Нанять экспертов: У нас есть Программа приоритетного флага где мы работаем со сторонними экспертами, которые отмечают потенциально насильственный контент, в том числе ради безопасности детей, для проверки нашими командами.

Как мы сотрудничаем с экспертами по безопасности детей и отраслевыми партнерами

За последнее десятилетие мы тесно сотрудничали с экспертами по безопасности детей, включая НПО, коллегами из отрасли и правоохранительными органами, чтобы ускорить борьбу с контентом CSAE. Наша последняя поддержка NCMEC основана на прошлом сотрудничестве, включая разработку Выделенный API определять приоритетность новых отчетов CSAM и поддерживать работу правоохранительных органов.

Кроме того, в Google есть группа специалистов, которая помогает нам выявлять случаи, когда помеченный контент указывает на то, что ребенок может находиться в активной опасности. Затем эта группа уведомляет NCMEC о срочности отчета, чтобы направить его в местные правоохранительные органы для дальнейшего расследования. Мы гордимся тем, что эта работа способствовала успешное спасение детей во всем мире.

ЧИТАТЬ  Мы предпринимаем судебные иски против Botnet Badbox 2.0.

Это сотрудничество продолжает служить основой нашей поддержки промышленные партнеры и инновации, подобные нашим Набор инструментов по безопасности детей. Мы бесплатно лицензируем набор инструментов, чтобы помочь другим организациям выявлять и помечать миллиарды потенциально оскорбительного контента для проверки каждый месяц.

Как мы продолжаем поддерживать ужесточение законодательства

Мы активно работаем над этой темой с законодателями и сторонними экспертами для достижения нашей общей цели: защиты детей в Интернете. Вот почему в этом году мы объявили о нашей решительной поддержке нескольких важных двухпартийных законопроектов в Соединенных Штатах, включая Закон об инвестициях в безопасность детей, Закон о проекте «Безопасное детство», Закон об отчетах, Закон о щите и Закон о STOP CSAM.

Эта работа продолжается, и мы продолжим расширять наши усилия, в том числе работу с другими участниками экосистемы, чтобы защитить детей и предотвратить неправомерное использование технологий для их эксплуатации.

Source