Быстрый рост генеративного искусственного интеллекта вызвал обеспокоенность по поводу его потенциального использования для вредоносной онлайн-деятельности, такой как создание и распространение дипфейков. В частности, учитывая серию выборов, запланированных на этот год, и сильные разногласия между Китаем, Россией, Ираном и Западом, эксперты выразили тревогу по поводу риска злоупотребления такими технологиями для влияния и дезинформации.
Недавно OpenAI, ведущая компания в области искусственного интеллекта, опубликовала отчет, в котором утверждается, что она сорвала несколько кампаний влияния, проводимых субъектами, связанными с правительствами России, Китая и Ирана, которые использовали ее инструменты для создания различного контента, в том числе статей и публикаций в социальных сетях. Хотя ИИ изменил инструменты, доступные операторам, компания заявляет, что они по-прежнему подвержены тем же человеческим ошибкам, что и предыдущие поколения.
Давайте подробно рассмотрим выводы этого отчета и его влияние на будущее искусственного интеллекта и кибербезопасности.
Содержание
Кампании влияния, обнаруженные OpenAI
Согласно отчету OpenAI, за последние три месяца компания сорвала пять кампаний влияния, проводимых группами, связанными с правительствами России, Китая и Ирана. Эти группы использовали инструменты OpenAI для создания разнообразного контента, включая статьи и публикации в социальных сетях, а также для отладки кода и анализа активности в социальных сетях.
Русские группы
OpenAI определила две российские группы, занимающиеся этой деятельностью:
- Плохая грамматика: неизвестная группа, которая использовала инструменты OpenAI для создания контента.
- двойник: плодовитая вредоносная сеть, известная распространением дезинформации о войне в Украине, которая использовала инструменты OpenAI для создания коротких текстовых комментариев на английском, французском, немецком, итальянском и польском языках, а также для перевода статей с русского и генерации текста о социальных сетях. .
Китайская группа
OpenAI также закрыла бизнес китайской группы Спамуфляжкоторый, по мнению ФБР, связан с Министерством общественной безопасности Китая.
Иранская группа
Л'Международный союз виртуальных медиа (IUVM)Иранская группа предположительно использовала инструменты OpenAI для создания контента для своего веб-сайта, обычно с антиамериканской и антиизраильской направленностью.
Израильская группа
Кроме того, израильская компания по управлению политической кампанией под названием стоик был пойман на злоупотреблении моделями OpenAI, создании контента, «слабо связанного» с войной в Газе и отношениями с евреями и мусульманами.
Ограниченное влияние кампаний влияния
По данным OpenAI, несмотря наиспользование ИИвыявленные кампании влияния имели ограниченный охват, и ни одна из них не набрала более 2 баллов из 6 по шкале «Прорыва», которая измеряет вероятное влияние конкретной вредоносной активности на пользователей.
Этот вывод согласуется с недавним отчетом Meta об операциях влияния, в котором были сделаны аналогичные выводы о недостоверной активности на своих платформах.
Предотвращение атак вредоносных групп
В отчете OpenAI также освещаются некоторые случаи, когда программное обеспечение компании не позволяло злоумышленникам достичь своих целей. Например, Doppelgänger пытался создать изображения европейских политиков, но был заблокирован, а Bad Grammar опубликовал сгенерированный контент, включающий отрицание модели ИИ.
Постоянные человеческие ошибки
По мнению OpenAI, «ИИ может изменить инструменты, используемые людьми-операторами, но не меняет самих операторов». Расследования компании показали, что вовлеченные группы подвергались тем же человеческим ошибкам, что и предыдущие поколения.
Источник статьи ВОЗ.