Я поговорил со старым другом об ИИ — как вы часто делаете, если вы разговариваете с кем -либо с кем -либо с кем -либо, и он описывает, как он использовал ИИ, чтобы помочь ему проанализировать страховые документы. По сути, он питал почти дюжину документов в системе, чтобы суммировать или, может быть, несколько длинных руководящих принципов для сравнения изменений. Это была работа, которая могла занять часы, но всего несколько минут в руках ИИ (может быть, Чатт или Близнецы, хотя он не указал).
Что меня очаровало, так это то, что у моего друга нет иллюзий о точности генеративного ИИ. Он полностью ожидал, что один из 10 фактов был неточным или, возможно, галлюцинированным, и дал понять, что его самые человеческие руки по -прежнему являются частью процесса контроля качества. В настоящее время.
Следующее, что он сказал, удивило меня — не потому, что это неправда, а потому, что он узнал это. В какой -то момент ИИ не будет галлюцинировать, это не допустит ошибки. Это траектория, и мы должны подготовиться к ней.
Будущее идеально
Я согласился, потому что это было мое мышление в течение долгого времени. Скорость развития по существу гарантирует это.
Пока я вырос Закон МурсаЗакон AI — это удвоение транзисторной способности на микрочипе, которая удваивается каждые два -шесть месяцев каждые два года. По этой причине все настолько убеждены, что мы достигнем искусственного общего интеллекта (AGI или человеческого интеллекта) раньше, чем изначально.
Я тоже так думаю, но я хотел бы вернуться к галлюцинациям, потому что даже если потребители и не технологии, такие как мой друг, делают ИИ для ежедневной работы, галлюцинации остаются очень реальной частью AI, LLM Corpus (модель Langual Language).
В недавнем анекдотическом тесте нескольких чат -ботов ИИ я был расстроен тем, что большинство из них не могли точно рассказать историю моей работы, даже если они приписывают детали в изысканных LinkedIn И ВикипедияПолем
Это были незначительные ошибки, а не реального смысла, потому что кто мой опыт заботится обо мне? Модель 03-минутной модели Chatgpt, которая использует более глубокий аргумент и поэтому может занять больше времени, чтобы сформулировать ответ, я сказал, что работал над Tech Republic. Это близко к «Techradar», но не сигаре.
Deepseek, китайский китбот wunderkund, позвольте мне работать в годы после моего отъезда. Это также смутило мою историю PCMag.
Google Gemini убедил детали разумно, но все сделали все правильно. Модель CHATGPT 4O следовала аналогичному подходу и достигла точности 100%.
Клод Ай потерял нить моей временной шкалы и до сих пор позволил мне работать в Mashable. Он предупреждает, что его данные устарели, но я не думал, что это так 8 лет устаревший.
Какой процент ответа ИИ, по вашему мнению, галлюцинации?24 марта 2025 года
Я провел несколько опросов в социальных сетях о степени галлюцинации, которую большинство людей ожидают на сегодняшних платформах KI. В темах, 25% считают, что AI галлюцинирует 25% случаевПолем 40% думают, что это занимает 30% времениПолем
Тем не менее, я также получил комментарии, которые напомнили мне, что точность зависит от качества запросов на вход и предметных областей. Информация, которая не имеет большого онлайн -следа, безусловно, приведет к галлюцинациям, человек предупредил меня.
Однако исследования показывают, что модели Не становятся большеОни также становятся умнее. Год назад, Исследование обнаружило, что Chatgpt Галлюцинация 40% случаев в некоторых тестах.
После Рейтинг модели оценки галлюцинации Хьюза (HHEM)Некоторые галлюцинации ведущих моделей упали до менее чем 2%. Вы можете вернуть более старые модели, такие как Meta Lama 3.2, чтобы двойные показатели галлюцинации.
Очистить хаос
Тем не менее, это показывает нам, что эти модели быстро идут в направлении, в котором предсказывает мой друг, и что в какой-то момент у них будут достаточно большие модели с данными обучения в реальном времени в не слишком долгосрочном будущем, которые приводят к частоте галлюцинации ниже 1%.
Я обеспокоен тем, что люди без технического знания -как или даже понимание того, как полезная подсказка может быть составлена на больших моделях голоса для реальной работы.
Ошибки, вызванные галлюцинацией, могут проникнуть во все сферы жизни и промышленности, а также в отрасли и заразить наши системы дезинформацией. Вы можете не быть большой ошибкой, но вы будете накапливаться. У меня нет решения для этого, но стоит подумать об этом и, возможно, даже беспокоиться.
Возможно, Future LLMS также включает в себя ошибки в подмечке, где вы отправляете их в Интернет и через свои файлы и имеете все ошибки с AI-Halluzining.
В конце концов, почему мы должны очистить хаос ИИ?