Искусственный интеллект (ИИ) может предложить решения по снижению активности в социальных сетях, которая считается токсичной и поляризующей.
В недавнем изучатьИсследователи предполагают, что изменение способа отображения контента в социальных сетях может уменьшить межпартийные разногласия и привести к более позитивному взаимодействию.
Исследование провела группа под руководством профессора Амстердамского университета Петтера Торнберга. Они запрограммировали 500 чат-ботов с уникальными политическими и демографическими профилями на основе данных опросов.
Боты были созданы для того, чтобы читать реальные новости и публиковать о них в смоделированной среде Twitter/X.
В этой ситуации боты демонстрировали большее удовольствие от поиска точек соприкосновения и менее токсичное поведение. Поскольку ИИ более реалистично имитирует людей, это исследование может дать представление о том, как объединять людей в социальных сетях, избегая при этом этических ошибок.
Подробнее об исследовании: моделирование социальной сети
Команда Торнберга программировала чат-ботов, используя ChatGPT 3.5. Каждому боту были присвоены политические взгляды, возраст, пол, доход, религия, любимые спортивные команды и многое другое. Это дало исследователям разнообразную моделируемую популяцию.
В смоделированный день в июле 2020 года боты читают реальные заголовки новостей того периода на такие темы, как COVID-19 и протесты Black Lives Matter. Затем боты комментировали, ставили лайки и взаимодействовали с сообщениями о заголовках новостей.
Исследователи создали три различные экспериментальные модели Twitter:
- Одна модель камеры, воспроизведенная эхом, показывала только сообщения ботов от других людей со схожими взглядами.
- Модель открытия отдавала приоритет вовлеченности, а не убеждениям.
- Третья модель «наведения мостов» выделяла посты, которые понравились противостоящим партийным группам, для оптимизации межпартийного взаимодействия.
Отслеживание поведения ботов
Моделирование длилось 6 часов, и исследователи отслеживали поведение ботов.
В модели мостов боты показали большее удовлетворение, находя общий язык по таким вопросам, как права ЛГБТК+ в музыке кантри. Также было значительно больше межпартийного взаимодействия и менее токсичных обменов, чем в модели поляризованной эхо-камеры.
«Если люди обсуждают проблему, которая пересекает партийные разногласия, когда 50% людей, с которыми вы согласны, голосуют за другую партию, чем вы, это уменьшает поляризацию», — объяснил Тёрнберг. «Ваша партийная принадлежность не активируется».
Результаты показывают, что социальные сети могут быть разработаны так, чтобы стимулировать взаимодействие, не разжигая злоупотреблений между различными группами. Однако необходимы дополнительные исследования, чтобы подтвердить, могут ли продвинутые чат-боты с искусственным интеллектом точно имитировать поведение человека в Интернете.
Этические проблемы
Сохраняются этические проблемы в отношении частных данных, используемых для обучения человекоподобных ботов. Потенциально они могут быть запрограммированы на использование сообщений людей в социальных сетях, истории посещений или конфиденциальных записей, что вызывает проблемы с согласием.
Вероятно, необходимы рекомендации относительно прав людей, чьи данные обучают ботов для исследований, подобных этому.
Поскольку чат-боты с искусственным интеллектом ведут себя более человечно, они могут пролить свет на снижение токсичности в социальных сетях. Однако исследователи должны гарантировать, что цифровые двойники также отражают лучшее, что есть в человечестве, а не худшее.
Рекомендованное изображение: CkyBe/Shutterstock