распространение дезинформации о здоровье становится все более актуальной проблемой в эпоху искусственного интеллекта (ИИ). Недавнее исследование, проведенное исследователями изУниверситет Флиндерс в Аделаиде продемонстрировал, насколько легко генерировать дезинформацию о здоровье с помощью ИИ, что вызвало обеспокоенность по поводу ответственности отрасли за решение этой проблемы.
Содержание
Эксперимент и результаты
Исследователи, не имеющие специальных знаний об искусственном интеллекте, использовали такие платформы искусственного интеллекта, как ChatGPT для создания более 100 статей дезинформации о здоровье на разных языках. Целью было проверить, насколько легко может быть создана дезинформация о вакцинации и использовании электронных сигарет.
Используя общедоступную информацию о том, как обойти механизмы безопасности платформ ИИ, я исследователи создали 102 статьи всего за 65 минут. Эти статьи были предназначены для конкретных групп, таких как молодые люди, молодые родители, беременные женщины и люди с хроническими заболеваниями. Статьи содержали ложные отзывы пациентов и медицинских работников, а также ссылки, которые выглядели научными.
Кроме того, платформа создала 20 фальшивых, но реалистичных изображений использовать с предметами менее чем за две минуты. Эти изображения включали фотографии вреда вакцины для маленьких детей. Исследователи также создали фейковое видео, связывающее прививки с детской смертностью, на более чем 40 языках.
Проблемы и запросы
я Результаты этого исследования являются вызывают тревогу и вызывают серьезные сомнения относительно ответственности промышленности в борьбе с распространением дезинформации о здоровье. Исследователи полагают, что разработчики этих платформ ИИ должны включать в себя механизмы, которые позволят медицинским работникам или представителям общественности сообщать об информации, генерируемой ИИ. Это позволит разработчикам вмешаться и устранить проблему.
Однако исследователи сообщили, что они не получили никакого подтверждения или обратной связи по отчетам, сделанным на момент исследования, и что инструменты не были обновлены для предотвращения злоупотреблений в будущем.
Проблема противодействия дезинформации
Мэтт Куперхольцбывший главный специалист по данным в ПвК, утверждает, что не существует механизмов безопасности, которые могли бы полностью остановить злоупотребление технологиями ИИ. По его словам, необходимо принять комплекс мер по противодействию дезинформации, в том числе механизмы ответственность производителей контентанапример социальные сети или отдельные авторы.
Куперхольц также утверждает, что возможно разработать технологии, которые смогут оценить результаты других платформ искусственного интеллекта и определить, является ли предоставленная информация достоверной. Таким образом можно построить инфраструктуру доверия, позволяющую выбирать и использовать только надежные инструменты и информацию.
Важность технологий искусственного интеллекта
Несмотря на риски, связанные с распространением дезинформации о здоровье посредством искусственного интеллекта, мы не должны забывать об огромном положительном потенциале, который могут предложить эти технологии. ИИ можно использовать для создания упрощенных версий научных данных, тем самым облегчая доступ к полезной медицинской информации.
Адам Данн, профессор биомедицинской информатики Сиднейского университета, утверждает, что страх, вызванный исследованиями по распространению дезинформации через ИИ, частично необоснован. По его словам, до сих пор нет убедительных доказательств, демонстрирующих корреляцию между наличием онлайн-дезинформации и изменениями в поведении людей.