Внедрение Google обзоров, созданных искусственным интеллектом, в результатах поиска в США принимает катастрофический оборот: ведущие СМИ, такие как The New York Times, BBC и CNBC, сообщают о многочисленных неточностях и странных ответах.
В социальных сетях пользователи делятся бесконечными примерами бессмысленных, а иногда и опасных результатов этой функции.
От рекомендаций нетоксичного клея для пиццы до предположений о том, что поедание камней обеспечивает питательную пользу, эти ошибки были бы забавными, если бы они не были такими тревожными.
Реплицированный….
Но я ценю, что предложенный клей «нетоксичен»!
Послушайте, речь идет не о «ошибках», а о том, чтобы указать на четко предсказуемый вред. Прежде чем, например, ребенок умрет от этого беспорядка.
Речь идет не о Google, а о предсказуемом влиянии ИИ на общество. pic.twitter.com/MIPjF8hg0i— ММитчелл (@mmitchell_ai) 23 мая 2024 г.
Я не мог в это поверить, пока не попробовал. Google должен исправить это как можно скорее.. pic.twitter.com/r3FyOfxiTK
— Крис Каштанова (@icreatelife) 23 мая 2024 г.
Содержание
Освещение в основных СМИ
Как сообщает The Газета «Нью-Йорк ТаймсОбзоры искусственного интеллекта Google не соответствуют основным фактам: в них утверждается, что Барак Обама был первым мусульманским президентом Соединенных Штатов, и утверждается, что Эндрю Джексон окончил колледж в 2005 году.
Эти ошибки подрывают доверие к поисковой системе Google, на которую полагаются более двух миллиардов человек в поисках достоверной информации по всему миру.
Ручное удаление и усовершенствования системы
Как сообщает ГраньGoogle сейчас пытается удалить странные ответы, генерируемые искусственным интеллектом, и улучшить свои системы вручную.
Представитель Google подтвердил, что компания предпринимает «быстрые действия» по удалению проблемных ответов и использует примеры для совершенствования своей функции обзора ИИ.
Google стремится к интеграции искусственного интеллекта
Некорректное внедрение обзоров ИИ — не единичный инцидент для Google.
Как CNBC В своем отчете отмечается, что Google допустила несколько ошибок, спеша интегрировать ИИ в свои продукты.
В феврале Google был вынужден приостановить работу своего чат-бота Gemini после того, как он генерировал неточные изображения исторических личностей и в большинстве случаев отказывался изображать белых людей.
До этого чат-бот компании Bard подвергся насмешкам за то, что поделился неверной информацией о космосе, что привело к потере 100 миллиардов долларов. уронить в рыночной стоимости Google.
Несмотря на эти неудачи, отраслевые эксперты, цитируемые The Газета «Нью-Йорк Таймс предполагают, что у Google нет другого выбора, кроме как продолжать продвигать интеграцию искусственного интеллекта, чтобы оставаться конкурентоспособным.
Однако проблемы укрощения больших языковых моделей, которые поглощают ложную информацию и сатирические посты, теперь становятся более очевидными.
Дебаты об искусственном интеллекте в поисках
Споры вокруг обзоров ИИ подливают масла в дискуссию о рисках и ограничениях ИИ.
Хотя у технологии есть потенциал, эти ошибки напоминают всем, что необходимо провести дополнительные испытания, прежде чем обнародовать ее.
Би-би-си отмечает, что конкуренты Google сталкиваются с аналогичной негативной реакцией из-за своих попыток внедрить больше инструментов искусственного интеллекта в свои продукты, ориентированные на потребителя.
Служба по надзору за данными Великобритании начала расследование в отношении Microsoft после того, как она объявила о функции, которая будет непрерывно делать снимки экрана онлайн-активности пользователей.
В то же время актриса Скарлетт Йоханссон раскритиковала OpenAI за использование без разрешения голоса, похожего на ее собственный.
Что это значит для веб-сайтов и SEO-специалистов
Освещение в средствах массовой информации ошибочных обзоров искусственного интеллекта Google привлекает внимание общественности к проблеме снижения качества поиска.
Поскольку компания работает над устранением неточностей, этот инцидент служит предостережением для всей отрасли.
Важный вывод: отдавайте приоритет ответственному использованию технологий искусственного интеллекта, чтобы преимущества перевешивали риски.