Исследователи, которые проверяют способность ИИ влиять на мнения людей, нарушают правила изменений в субреддии и вводящих в заблуждение практики, которые, как говорят, не одобрены их комитетом по этике, включая личность жертв сексуального насилия и использование справочной информации через пользователя Reddit, чтобы манипулировать ими.
Они утверждают, что эти условия могли ввести искажения. Их решение состояло в том, чтобы ввести ботов ИИ в живую среду, не говоря, что члены форума с ботом ИИ. Их аудитория была ничего не подозревающего пользователя Reddit в изменении, по моему мнению (CMV) subreddit (r/ChangemyView), хотя это было нарушением правил субреддита, запрещающего использование неоспитанных AI -ботов.
После того, как исследование было завершено, исследователи передали свой обман модератору Reddit, который затем опубликовал сообщение в Subreddit, вместе с копией завершенного исследователя.
Содержание
Этические вопросы о исследовательской статье
Модераторы CMV публикуют обсуждение, которое подчеркивает, что SubredDit никогда не был бы предоставлен, и разрешение для проведения этого эксперимента:
«Правила CMV не позволяют использовать неизвестный ИИ -генерируемый контент или ботов на нашей подводной лодке. Исследователи не связывались с нами до исследования. Если они это сделали.
Этот факт, что исследователи нарушили правила Reddit, был полностью отсутствует в исследовательской работе.
Исследователи утверждают, что исследования были этическими
В то время как исследователи издают, что исследование нарушило правила субреддитов, они создают впечатление, что оно было этичным, обнаружив, что их метод исследования был одобрен комитетом по этике и что все созданные комментарии были проверены, чтобы гарантировать, что они не были вредными или неэтичными:
«В этом предварительно зарегистрированном исследовании мы проводим первый крупномасштабный полевой эксперимент по убедительности LLMS, который был проведен в R/ChangemyView, сообществе Reddit почти 4M пользователей и ранжировал среди 1% субреддитов. В R/ChangemyView пользователи делятся пользователями за мнения, которые могут иметь дело с другими. Это достаточно убедит, чтобы изменить или изменить или изменить вашу позицию.
… Исследование было одобрено Комитетом по этике Университета Цюриха. Прежде всего, все комментарии, созданные исследователем из нашей команды, были проверены, чтобы гарантировать, что не было опубликовано никакого вредного или неэтичного контента. «
Модераторы ChangemyView отрицают претензию исследователя на этическую высокую почву:
«Во время эксперимента исследователи изменились с запланированных« аргументов на основе стоимости », которые первоначально были одобрены Комитетом по этике на этот вид« персонализированных и мелко скоординированных аргументов ». Сначала они не консультируют себя с Комиссией по этике Университета Цюриха, прежде чем они внесут изменения.
Почему модераторы Reddit считают, что исследования были неэтичными
Изменение, на мой взгляд, вызвало модераторы подразделения, выразили несколько опасений по поводу того, почему они считают, что исследователи имеют серьезное нарушение этики, включая жертв сексуального насилия. Они утверждают, что это считается «психологической манипуляцией» оригинальных плакатов (OPS), людей, которые начали каждое обсуждение.
Модераторы Reddit опубликовали:
«Исследователи утверждают, что психологические манипуляции с OPS в этом подборе оправданы, поскольку отсутствие существующих полевых тестов представляет собой неприемлемый разрыв в составе знаний. Однако, если OpenAI может создать дизайн этических исследований, эти исследователи следует ожидать, что то же самое.
ИИ использовался для решения OPS личным способом, для которого вы не зарегистрировали, и так много данных для определения функций, насколько это возможно, путем очистки платформы Reddit. Вот выдержка из исследовательской квалификации.
Персонализация: в дополнение к содержанию Post, LLM получили личные свойства операции (пол, возраст, этническая принадлежность, место и политическая ориентация), полученные из их истории публикаций с использованием другого LLM.
Некоторые примеры на высоком уровне того, как использовался ИИ:
- Ки, который притворяется, что станет жертвой изнасилования
- ИИ, который выступает в качестве консультанта по травмам, который специализируется на жестоком обращении
- ИИ обвиняет членов религиозной группы «причина[ing] Смерть сотен невинных торговцев, фермеров и жителей деревни. «
- ИИ, который притворяется черным человеком против черной жизни, важен
- ИИ, который притворяется уходом в иностранной больнице. «
Команда модератора подала жалобу в Цюрихском университете
AI -боты убедительны?
Исследователи обнаружили, что ИИ -боты очень убедительны и что они становятся лучше, чтобы изменить мнение людей, чем люди.
Исследовательская статья объясняет:
«Последствия. В первом полевом испытании с осуждением, контролируемым AI, мы показываем, что LLMS может быть очень убедительным в реальных контекстах и превышать все известные критерии человеческого убеждения».
Одним из выводов было то, что люди не смогли осознать, когда говорили с ботом и (неироночно) платформы социальных сетей, чтобы поощрять лучшие возможности для выявления и блокировки AI -ботов:
«Между прочим, наш эксперимент подтверждает проблему отличия людей от контента, сгенерированного AI. Во время нашего вмешательства пользователи R/ChangemyView никогда не выражали опасения, что KI, возможно, генерировал комментарии наших учетных записей. Это ссылка на потенциальную эффективность A-Operated Botnern … что может быть очевидным в онлайн-конгрегациях в онлайн-сообществах.
Ввиду этих рисков мы утверждаем, что онлайн-платформы должны активно разрабатывать и реализовать надежные механизмы распознавания, протоколы проверки контента и меры прозрачности, чтобы предотвратить распространение манипулирования AI-генерируемым A. «
Закуски:
- Этические нарушения в исследовании осуждения ИИ
Исследователи выполнили живое осуждение ИИ без одобрения Reddit, которое нарушило правила субреддита и якобы нарушала этические нормы. - Спорные этические претензии
Исследователи утверждают, что этические высокие свойства цитируют одобрение Комитета по этике, но подлежат выполнению приказов. Модераторы утверждают, что они участвуют в психологических манипуляциях. - Использование персонализации в аргументах ИИ
AI -боты якобы использовали поцарапающие персональные данные для создания высокорежных аргументов, которые начинаются с пользователей Reddit. - Модераторы Reddit утверждают, что глубоко тревожный обман
Модераторы Reddit утверждают, что жертвы сексуального насилия Ki -бот, консультанты по травмам и другие эмоционально стрессовые персоны для манипулирования мнениями. - Высокая убедительность и признание проблем KIS
Исследователи утверждают, что AI-боты оказались более убедительными, чем люди, и остаются незамеченными пользователями и вызывали обеспокоенность по поводу будущих управляемых бот-манипуляций. - Исследовательский документ случайно видит, почему AI -боты должны быть запрещены в социальных сетях
Исследование показывает, что платформы социальных сетей показывают необходимость в разработке инструментов для распознавания и рассмотрения контента, сгенерированного AI. По иронии судьбы, сам исследовательский документ является причиной, по которой ИИ -боты должны быть запрещены более агрессивными в социальных сетях и форумах.
Исследователи из Университета Цюриха проверили, могут ли ИИ -боты убедить людей более эффективно, чем люди, тайно используя персонализированные аргументы искусственного интеллекта через субреддит ChangemyView без пользовательских отношений, нарушая правила платформы и предположительно, используя этические стандарты, утвержденные их советом по этике. Их результаты показывают, что Ki боты очень убедительны и трудно распознать, но то, как было проведено само исследование, вызывает этические проблемы.
Прочитайте опасения модераторов подредактирования ChangemyView:
Несауауторизованный эксперимент с CMV с созданными AI комментариями
Выбранная картина Shutterstock/Ausra Barysiene и манипулированная автором