Наша цель в Google — сбалансировать доступ к информации и защиту пользователей и общества. Чтобы информация была полезной, она также должна быть защищена.

Мы серьезно относимся к своей ответственности за предоставление доступа к проверенной информации и контенту, защищая пользователей от вреда, предоставляя проверенную информацию и сотрудничая с экспертами и организациями для создания более безопасного Интернета.

Наши решения в отношении продуктов, политик и приложений основаны на принципах, которые ценят открытость и доступность, личный выбор и разнообразие наших пользователей. Мы уделяем приоритетное внимание сохранению свободы выражения мнений, которую так мощно обеспечивает Интернет, и одновременно ограничению распространения контента, который вреден для пользователей и общества.

Защита пользователей от вреда и злоупотреблений

Мы постоянно совершенствуем инструменты, политики и методы, которые используем для обнаружения оскорбительного контента.

ИИ демонстрирует огромные перспективы для расширения обнаружения злоупотреблений на наших платформах.

Например, мы создали прототип, который использует последние достижения в области больших языковых моделей (LLM), чтобы помочь выявить оскорбительный контент в большом масштабе. LLM — это тип искусственного интеллекта, способный генерировать и понимать человеческий язык.

С помощью LLM наша цель — иметь возможность быстро построить и обучить модель за несколько дней (а не недель или месяцев) для обнаружения конкретных типов злоупотреблений в наших продуктах. Это особенно полезно для новых и возникающих областей злоупотреблений; мы можем быстро создать прототип экспертной модели для исследования конкретного типа злоупотреблений и автоматически направить ее нашим командам для применения. Мы все еще тестируем эти новые методы, но прототипы пока продемонстрировали впечатляющие результаты и обещают крупный прорыв в наших усилиях по превентивной защите наших пользователей, особенно от новых и возникающих рисков.

ЧИТАТЬ  Новые способы появиться там, где наблюдает мир, благодаря ИИ

Помощь пользователям в оценке информации, которую они находят в Интернете.

Сегодня вы узнаете о некоторых шагах, которые мы предпринимаем для снижения угрозы дезинформации и продвижения достоверной информации в продуктах генеративного ИИ – от запуска новых инструментов до адаптировать нашу политикумногие из которых имеют общую цель — предоставить пользователям дополнительный контекст о том, что они видят в Интернете.

Партнерство для создания более безопасного Интернета

Мы также признаем, что масштаб этой проблемы требует от нас сотрудничества с другими. Инвестиции в тесное партнерство для усиления проверки фактов, медиаграмотности и исследований дезинформации имеют важное значение в борьбе за качественную информацию.

Буквально вчера я присутствовал на мероприятии, на котором присутствовало 40 человек, представляющих некоторые организации по медиаграмотности и цифровой отчетности, поддерживаемые Google.org, который предоставляет некоммерческим организациям дополнительное финансирование и ресурсы. Среди них Bibliothèques Sans Frontières, неправительственная организация, базирующаяся здесь, в Брюсселе, будет использовать свой грант, чтобы помочь подросткам задавать критические вопросы о том, что они читают в Интернете.

Это основано на прошлогоднем объявлении о создании Глобального фонда проверки фактов и обязательстве в размере 10 миллионов долларов США по борьбе с дезинформацией о войне на Украине, включая новые партнерские отношения с аналитическими центрами и организациями гражданского общества, а также денежные гранты для сетей проверки фактов и некоммерческих организаций.

Я действительно с нетерпением жду сегодняшних новостей от ведущих специалистов в области проверки фактов, модерации контента, политики и журналистики, а также того, чего каждый из нас может достичь, работая вместе.

Source