OpenAI объявила, что разработала систему искусственного интеллекта с использованием GPT-4 для поддержки модерации контента на онлайн-платформах.
Компания заявляет, что эта система обеспечивает более быструю итерацию изменений политики и более последовательную маркировку контента, чем традиционная модерация под руководством человека.
OpenAI сказал в своем Уведомление:
«Модерация контента играет решающую роль в поддержании работоспособности цифровых платформ. Система модерации контента, использующая GPT-4, приводит к гораздо более быстрой итерации изменений политики, сокращая цикл с месяцев до часов».
Этот шаг направлен на повышение согласованности маркировки контента, ускорение обновления политики и снижение зависимости от модераторов-людей.
Это также может оказать положительное влияние на психическое здоровье модераторов и продемонстрировать потенциал ИИ для защиты психического здоровья в Интернете.
Содержание
Проблемы с модерацией контента
OpenAI объяснила, что модерация контента — это сложная работа, требующая кропотливых усилий, тонкого понимания контекста и постоянной адаптации к новым вариантам использования.
Традиционно эти трудоемкие задачи делегировались модераторам-людям. Они проверяют большое количество пользовательского контента, чтобы удалить вредные или неприемлемые материалы.
Это может быть психологически сложной работой. Использование ИИ для выполнения этой задачи потенциально может привести к сокращению человеческая стоимость модерация онлайн-контента.
Как работает система искусственного интеллекта OpenAI
Новая система OpenAI направлена на поддержку модераторов-людей с помощью GPT-4 для интерпретации политик контента и вынесения суждений о модерации.
Эксперты по политике сначала пишут политики в отношении контента и помечают примеры, соответствующие политике.
Затем GPT-4 присваивает метки тем же образцам, не видя ответов экзаменатора.
Сравнивая метки GPT-4 с человеческими метками, OpenAI может уточнять неоднозначные определения политики и переобучать ИИ до тех пор, пока он не будет надежно интерпретировать политики.
Пример
В сообщении в блоге OpenAI показано, как рецензент-человек может уточнить политики, если он не согласен с флагом GPT-4, присвоенным контенту.
В приведенном ниже примере рецензент-человек оценил что-то как K3 (пропаганда ненасильственного вреда), но GPT-4 посчитал, что это не нарушает Политику противоправного поведения.
Если GPT-4 объясняет, почему было выбрано другое обозначение, эксперт-человек может понять, где рекомендации неясны.
Они обнаружили, что в GPT-4 отсутствует тот нюанс, который кража собственности может квалифицироваться как поощрение ненасильственного вреда в соответствии с политикой K3.
Это взаимодействие иллюстрирует, как человеческий надзор может дополнительно обучать системы ИИ, разъясняя руководящие принципы в областях, где знания ИИ неполны.
После понимания политики GPT-4 можно использовать для модерации контента в любом масштабе.
Преимущества, отмеченные OpenAI
OpenAI обозначил несколько преимуществ, которые, по его мнению, предлагает система модерации на основе ИИ:
- Более последовательная маркировка, поскольку ИИ быстро адаптируется к изменениям политики
- Ускоренный цикл обратной связи для улучшения политик, сокращение циклов обновления с месяцев до часов
- Снижение умственной нагрузки на модераторов-людей
Что касается последнего пункта, OpenAI следует подумать о том, чтобы подчеркнуть потенциальные преимущества модерации ИИ для психического здоровья, если он хочет, чтобы люди поддержали эту идею.
Использование GPT-4 для модерации контента вместо людей может помочь многим модераторам, поскольку избавляет их от просмотра травмирующих материалов.
Эта разработка может уменьшить потребность модераторов в непосредственном контакте с оскорбительным или вредоносным контентом и, таким образом, уменьшить их умственную нагрузку.
Ограничения и этические соображения
Утвержденные OpenAI суждения о моделях ИИ могут содержать нежелательные предубеждения, поэтому результаты необходимо отслеживать и проверять. Было подчеркнуто, что люди должны оставаться «в курсе» сложных случаев модерации.
Компания изучает способы улучшения возможностей GPT-4 и хочет использовать ИИ для выявления возникающих рисков контента, которые могут служить основой для новых политик.
Избранное изображение: солнце в порядке / Shutterstock