Мы все были там. Вы чувствуете странную боль в боку или получаете от врача запутанный результат теста, и первое, что вы делаете, это открываете Google. Вы не получаете медицинскую степень; Вам просто нужен быстрый ответ на вопрос «Со мной все в порядке?» Но недавно Google пришлось приостановить работу над поисковыми сводками с использованием искусственного интеллекта, потому что, как выяснилось, просить у робота медицинский совет на самом деле может быть опасно.
Google незаметно удалил из результатов поиска ряд сводок о состоянии здоровья, созданных искусственным интеллектом, после того, как расследование показало, что они содержат неточную и, откровенно говоря, пугающую информацию. Все началось после доклада Об этом сообщила газета Guardian что эти «обзоры ИИ» — красочные прямоугольники, которые появляются вверху вашего поиска — предоставляют неполные данные.
Самым ярким примером были анализы крови в печени.
Если бы вы запросили у ИИ «нормальные диапазоны», он бы просто выдал список чисел. Не спрашивали, мужчина вы или женщина. Он не спрашивал о вашем возрасте, этнической принадлежности или истории болезни. Был только плоский номер. Медицинские эксперты посмотрели на это и сказали: «Это опасно».
Проблема здесь не только в том, что ИИ ошибся; это опасно вводило в заблуждение. Представьте себе человека с ранней стадией заболевания печени, который ищет результаты своих анализов. ИИ сообщает им, что их число находится в «нормальном» диапазоне, определенном им на случайном веб-сайте. Этот человек может подумать: «О, тогда со мной все в порядке» и пропустить следующий прием. В действительности, «нормальное» число для 20-летнего человека может быть предупреждающим знаком для 50-летнего. Искусственному интеллекту не хватает нюансов, чтобы распознать это, и этот разрыв в контексте может иметь серьезные последствия в реальном мире.
Ответ Google был довольно стандартным: они удалили определенные помеченные запросы и подчеркнули, что их система обычно оказывается полезной. Но вот что интересно: организации здравоохранения, такие как British Liver Trust, обнаружили, что если немного перефразировать вопрос, та же самая неприятная информация тут же всплывет на поверхность. Это похоже на цифровой праздник. Вы исправляете ошибку, и ИИ просто через пять секунд генерирует новую.
Настоящая проблема здесь — доверие
Поскольку эти сводки ИИ размещаются в верхней части страницы над реальными ссылками на больницы или медицинские журналы, они излучают авторитет. Мы обучены верить в лучший результат. Когда Google представляет ответ в аккуратной маленькой коробочке, наш мозг подсознательно воспринимает его как «правильный» ответ. Но это не так. Это просто машина предсказаний, которая пытается угадать, какие слова последуют дальше.

Прямо сейчас это огромный тревожный звонок. ИИ отлично подходит для обобщения электронной почты или планирования маршрута путешествия, но когда дело касается вашего здоровья, он явно еще не готов к работе в прайм-тайм. Пока эти системы не смогут понимать контекст или пока Google не внедрит более строгую защиту, вероятно, безопаснее прокрутить мимо робота и нажать на реальную ссылку от настоящего врача. Скорость — это хорошо, но точность — единственное, что имеет значение, когда дело касается вашего здоровья.

