Месячный эксперимент вызвал новые опасения по поводу надежности инструментов генеративного искусственного интеллекта в качестве источников новостей после того, как было обнаружено, что чат-бот Google Gemini фабрикует целые новостные каналы и публикует ложные сообщения. Выводы изначально были сообщает The Conversationкоторый проводил расследование.

Эксперимент проводил профессор журналистики, специализирующийся на информатике, который протестировал семь генеративных систем искусственного интеллекта в течение четырехнедельного периода. Каждый день инструментам предлагалось составить список и обобщить пять главных новостных событий в Квебеке, ранжировать их по важности и предоставить прямые ссылки на статьи в качестве источников. Среди протестированных систем были Gemini от Google, ChatGPT от OpenAI, Claude, Copilot, Grok, DeepSeek и Aria.

Самой заметной неудачей стало то, что «Джемини» изобрели фиктивное информационное агентство. examplefictif.ca – и ложно сообщил о забастовке водителей школьных автобусов в Квебеке в сентябре 2025 года. На самом деле сбои были вызваны отзывом автобусов Lion Electric из-за технической проблемы. Это был не единичный случай. В 839 ответах, собранных в ходе эксперимента, системы искусственного интеллекта регулярно ссылались на вымышленные источники, предоставляли неверные или неполные URL-адреса или искажали реальные отчеты.

Результаты важны, потому что все больше и больше людей уже используют чат-ботов с искусственным интеллектом для обмена сообщениями.

Согласно отчету о цифровых новостях Института Рейтер, в 2024 году шесть процентов канадцев полагались на генеративный искусственный интеллект в качестве источника новостей. Когда эти инструменты галлюцинируют факты, искажают отчеты или фабрикуют выводы, они рискуют распространить дезинформацию, особенно если их ответы представлены уверенно и без четких заявлений об отказе от ответственности.

Для пользователей риски практические и непосредственные. Только 37 процентов ответов содержали полный и законный URL-адрес источника. Хотя сводки были полностью точными менее чем в половине случаев, многие из них были лишь частично точными или слегка вводили в заблуждение. В некоторых случаях инструменты ИИ добавляли необоснованные «генеративные выводы», утверждая, что истории «возобновили дебаты» или «подчеркнули напряженность», никогда не упоминавшиеся человеческими источниками. Эти дополнения могут показаться проницательными, но они могут создать повествования, которых просто не существует.

ЧИТАТЬ  Вебинар по межсетевым экранам нового поколения: оптимальные стратегии выбора и внедрения – 8 ноября 2023 г. | Цифровые мероприятия

Ошибки касались не только производства.

Некоторые инструменты искажали правдивые истории, например, дезинформация об обращении с просителями убежища или неверное определение победителей крупных спортивных мероприятий. Другие допустили фундаментальные фактические ошибки в данных опроса или личных обстоятельствах. В целом, эти проблемы позволяют предположить, что генеративный ИИ по-прежнему испытывает трудности с различием между обобщением новостей и созданием контекста.

Заглядывая в будущее, можно сказать, что опасения, поднятые The Conversation, согласуются с более широкой оценкой отрасли. Недавний отчет 22 общественных СМИ показал, что почти половина ответов на сообщения, сгенерированные ИИ, содержат серьезные проблемы — от проблем с источниками до серьезных неточностей. Поскольку инструменты ИИ становятся все более интегрированными в поисковые и повседневные информационные привычки, результаты подчеркивают четкое предупреждение: когда дело доходит до новостей, генеративный ИИ в лучшем случае следует рассматривать как отправную точку, а не как надежный источник информации.

Source