В октябре OpenAI с гордостью представила поиск ChatGPT как новый уровень для поисковых систем. Компания похвасталась, что новая функция сочетает в себе диалоговые возможности ChatGPT с лучшими инструментами веб-поиска, предоставляя информацию в реальном времени в более полезной форме, чем любой список ссылок. Согласно недавнему обзор По мнению Центра цифровой журналистики Tow Колумбийского университета, такое празднование, возможно, было преждевременным. В отчете говорится, что ChatGPT придерживается несколько справедливого подхода к точности, атрибуции и базовой реальности при поиске новостей.
Что особенно примечательно, так это то, что проблемы возникают независимо от того, блокирует ли релиз веб-сканеры OpenAI или имеет ли официальное лицензионное соглашение с OpenAI на свой контент. В ходе исследования было проверено 200 цитат из 20 публикаций, и ChatGPT попросили указать авторство. Результаты были повсюду.
Иногда чат-бот делал это правильно. В других случаях цитаты приписывались не тому источнику или источник был просто выдуман. Партнеры OpenAI, в том числе Уолл Стрит Джорнал, Атлантика, публикации Акселя Спрингера и Мередит иногда оказывались лучше, но не с какой-либо последовательностью.
Полагаться на точность при запросе новостей в ChatGPT — это не то, чего хотят OpenAI или ее партнеры. Сделки рекламировались как способ OpenAI поддержать журналистику и одновременно повысить точность ChatGPT. Когда ChatGPT обратился к Политическиопубликованный Акселем Спрингером, поскольку цитирует говорящего человека, часто это не тот человек, которого цитировал чат-бот.
Потеря новостей об искусственном интеллекте
Краткий ответ на проблему — это просто метод ChatGPT по поиску и обработке информации. Веб-сканеры, которые ChatGPT использует для доступа к данным, могут работать идеально, но модель искусственного интеллекта, лежащая в основе ChatGPT, все равно может совершать ошибки и вызывать галлюцинации. Лицензионный доступ к контенту не меняет этого фундаментального факта.
Конечно, если публикация блокирует веб-сканеры, ChatGPT может превратиться из новостного в волка в овечьей шкуре с точки зрения точности. Торговые точки, которые используют файлы robots.txt, чтобы исключить использование ChatGPT в своем контенте, например Нью-Йорк Таймс, Позвольте ИИ ерзать и изобретать источники вместо того, чтобы говорить, что у него нет для вас ответа. Более трети ответов в отчете соответствуют этому описанию. Это больше, чем просто небольшое исправление кода. Возможно, даже хуже, если бы ChatGPT не мог получить доступ к законным источникам, он обратился бы к местам, где тот же контент был размещен без разрешения, что привело бы к плагиату.
В конечном счете, неправильная атрибуция цитат с помощью ИИ — не такая большая проблема, как влияние на журналистику и такие инструменты ИИ, как ChatGPT. OpenAI хочет, чтобы поиск ChatGPT был местом, где люди ищут быстрые и надежные ответы, которые правильно связаны и цитируются. Если он не сможет добиться результатов, это подрывает доверие как к ИИ, так и к журналистике, которую он объединяет. Для партнеров OpenAI доход от лицензионного соглашения может не окупить потерю трафика из-за ненадежных ссылок и цитирования.
Хотя поиск ChatGPT может быть полезен для многих видов деятельности, обязательно проверьте эти ссылки, если вы хотите убедиться, что ИИ не галлюцинирует ответы из Интернета.