Недавние функции генерации изображений CHATT подвергли сомнению наши предыдущие неполноценные средства массовой информации. Недавно анонсированная модель GPT-4O показывает замечательные навыки для интерпретации изображений с высокой точностью и воспроизводить их с вирусными эффектами, как вдохновляется Studio Ghibli. Это даже портит текст в изображениях, сгенерированных AI, которые ранее были затруднены для ИИ. И теперь он начинает две новые модели, которые могут анализировать картинки, чтобы собрать информацию, чтобы собрать гораздо больше информации, которая даже не может существовать человеческим глазом.
Openai объявлено Две новые модели в начале этой недели, которые занимают мыслительные навыки CATGPT. Его новая модель O3, которую OpenAI описывает как «самую мощную модель аргументации», улучшает существующие навыки интерпретации и восприятия и становится «кодированием, математикой, естественными науками, визуальным восприятием и многом другом», утверждает организация. В то же время, O4-Mini-это меньшая и более высокая модель для «экономичного аргумента» таким же образом. Новости о последнем начале Openai в классе моделей GPT 4.1, который приносит более быстрое изящество и более глубокий контекст.
Chatgpt теперь «думает с картинками»
С улучшением их способностей к разуме, обе модели теперь могут включать изображения в свой процесс аргументации, что означает, что они «способны думать с изображениями», чтобы иметь возможность думать с изображениями », думать», думать, с изображениями, которые способны думать, с изображениями, которые могут думать, «», «», «думать», «думать». Openaai объявилПолем С этим изменением обе модели могут интегрировать изображения в свою цепочку мышления. Модели O3 и O4-Mini могут быть более внимательно изучены об основном анализе изображений и даже манипулируют такими действиями, как резка, увеличение, переворачивание или обогащение деталями, чтобы вызвать визуальную информацию из изображений, которые могут улучшить способность CHATGPT предоставлять решения.
Внедрение Openai O3 и O4-Mini-Unser До сих пор интеллектуальные и способные модели.
Впервые наши модели аргументации могут использовать и комбинировать каждый инструмент в Aggregogen, включая веб -поиск, Python, анализ изображений, интерпретация файлов и генерацию изображений. pic.twitter.com/rdaqv0x0we
— Openai (@openai) 16 апреля 2025 года
В объявлении говорится, что модели объединяют визуальные и текстовые аргументы, которые могут быть интегрированы в другие функции CHATT, такие как веб -поиск, анализ данных и Codegen, и, как ожидается, станет основой для более продвинутых агентов ИИ с мультимодальным анализом.
Среди прочего, вы можете рассчитывать на сфотографировать большое количество элементов, таких как схемы потока или рукописные примечания, на картинки реальных объектов, и ожидают, что CHATGPT будет более глубоким пониманием лучшего вывода, даже без описательного текста. OpenAI приближается к Google Gemini, который предлагает впечатляющую способность интерпретировать реальный мир через живое видео.
Несмотря на смелые претензии, Openaai ограничивает доступ к оплачиваемым членам, предположительно, чтобы предотвратить его графические процессоры снова, потому что он стремится поддерживать расчет в соответствии с новыми аргументированными функциями. Отныне модели O3, O4-Mini и O4-Mini-High доступны исключительно для Chatgpt Plus, Pro и членов команды, в то время как пользователи предприятия и образования доступны через неделю. В то же время, бесплатные пользователи могут ограничить доступ к O4-Mini, если вы выберете кнопку «Think» в командной строке.