• Последние модели искусственного интеллекта из Openaai, GPT O3 и O4-Mini, они галлюцинируют значительно чаще, чем их предшественники
  • Повышенная сложность моделей может привести к более самоуверенным неточностям
  • Высокие показатели ошибок вызывают обеспокоенность по поводу надежности ИИ в реальных приложениях

Блестящие, но не заслуживающие доверия люди являются основным продуктом художественной литературы (и истории). Та же самая корреляция также может применяться к ИИ, основанную на проверке Openaai и разделенный от New York TimesПолем Галлюцинации, воображаемые факты и прямая ложь были частью чат -ботов ИИ с момента их создания. Теоретически, улучшения в моделях должны уменьшить частоту, с которой они появляются.

Последние флагманские модели от Openaai, GPT O3 и O4-Mini предназначены для имитации человеческой логики. В отличие от своих предшественников, которые в основном сосредоточились на генерации плавного текста, Openai GPT O3 и O4-Mini построили вещи шаг за шагом. OpenAI приступил к тому, что O1 может соответствовать или превзойти результаты докторантов по химии, биологии и математике. Тем не менее, отчет OpenAI показывает некоторые разрушительные результаты для всех, кто использует ответы CHATGPT для использования номинальной стоимости.

Source