Выявляйте масштабные злоупотребления

Наши команды по доверию и безопасности также используют искусственный интеллект, чтобы улучшить защиту наших пользователей в Интернете. ИИ демонстрирует огромные перспективы с точки зрения скорости и масштаба обнаружения нюансов злоупотреблений. Опираясь на наработанные нами автоматизированные процессы, мы разработали прототипы, которые используют последние достижения, чтобы помочь нашим командам выявлять оскорбительный контент в больших масштабах.

С помощью LLM наша цель — иметь возможность быстро построить и обучить модель за несколько дней (а не недель или месяцев) для обнаружения конкретных типов злоупотреблений в наших продуктах. Это особенно полезно для новых и возникающих областей злоупотреблений, таких как российская дезинформация после вторжения в Украину, или для решения более тонких задач, таких как обнаружение контрафактной продукции в Интернете. Мы можем быстро создать прототип модели и автоматически направить его нашим командам для реализации.

LLM также трансформируют обучение. Используя новые методы, мы теперь можем расширить охват типов злоупотреблений, контекста и языков так, как никогда раньше, включая удвоение количества языков, охватываемых нашими классификаторами безопасности на устройствах, только за последний квартал. Начав с информации одного из наших аналитиков злоупотреблений, мы можем использовать LLM для создания тысяч вариантов событий, а затем использовать их для обучения наших классификаторов.

Мы все еще тестируем эти новые методы на предмет соответствия строгим стандартам точности, но прототипы уже продемонстрировали впечатляющие результаты. Потенциал огромен, и я считаю, что мы находимся на пороге драматических преобразований в этой области.

Укреплять сотрудничество и прозрачность

Работа с контентом, создаваемым искусственным интеллектом, потребует сотрудничества и решений в рамках всей отрасли и экосистемы; ни одна компания или учреждение не сможет выполнить эту работу в одиночку. Ранее на этой неделе на саммите мы собрали исследователей и студентов, чтобы поговорить с нашими экспертами по безопасности о рисках и возможностях в эпоху искусственного интеллекта. Чтобы поддержать экосистему, которая проводит эффективные исследования с использованием реальных приложений, мы удвоили количество Награды Университета Google за исследования победителей этого года, чтобы увеличить наши инвестиции в решения для исследований в области доверия и безопасности.

ЧИТАТЬ  Маркетинг с нуля с экспертом по стартапам Энни Катриной Ли

Наконец, качество информации всегда было в центре миссии Google, и это включает в себя обеспечение пользователей контекстом, необходимым для оценки достоверности контента, который они находят в Интернете. Продолжая интегрировать искусственный интеллект во все больше продуктов и услуг, мы стремимся помочь людям лучше понять, как конкретный фрагмент контента создавался и изменялся с течением времени.

Ранее в этом году мы присоединился к Коалиции за происхождение и подлинность контента (C2PA) в качестве члена руководящего комитета.. Мы сотрудничаем с другими компаниями для разработки совместимых стандартов происхождения и технологий, позволяющих объяснить, была ли фотография сделана камерой, отредактирована программным обеспечением или создана генеративным искусственным интеллектом. Информация такого типа помогает нашим пользователям принимать более обоснованные решения относительно контента, с которым они взаимодействуют (включая фотографии, видео и аудио), а также повышает медиаграмотность и доверие.

Наша работа с C2PA напрямую дополняет наш собственный более широкий подход к прозрачности и ответственному развитию ИИ. Например, мы продолжаем приносить наши Идентификатор синтезатора от инструментов для создания водяных знаков до инструментов искусственного интеллекта дополнительного поколения и других форм мультимедиа, включая текст, аудио, визуальные и видео.

Мы стремимся к ответственному внедрению ИИ – от использования ИИ для защиты наших платформ от злоупотреблений до разработки инструментов для улучшения образования и доверия к средствам массовой информации – при этом уделяя особое внимание важности сотрудничества, обмена информацией и ответственной совместной разработки ИИ.

Source