Недавние функции генерации изображений CHATT подвергли сомнению наши предыдущие неполноценные средства массовой информации. Недавно анонсированная модель GPT-4O показывает замечательные навыки для интерпретации изображений с высокой точностью и воспроизводить их с вирусными эффектами, как вдохновляется Studio Ghibli. Это даже портит текст в изображениях, сгенерированных AI, которые ранее были затруднены для ИИ. И теперь он начинает две новые модели, которые могут анализировать картинки, чтобы собрать информацию, чтобы собрать гораздо больше информации, которая даже не может существовать человеческим глазом.

Openai объявлено Две новые модели в начале этой недели, которые занимают мыслительные навыки CATGPT. Его новая модель O3, которую OpenAI описывает как «самую мощную модель аргументации», улучшает существующие навыки интерпретации и восприятия и становится «кодированием, математикой, естественными науками, визуальным восприятием и многом другом», утверждает организация. В то же время, O4-Mini-это меньшая и более высокая модель для «экономичного аргумента» таким же образом. Новости о последнем начале Openai в классе моделей GPT 4.1, который приносит более быстрое изящество и более глубокий контекст.

Chatgpt теперь «думает с картинками»

С улучшением их способностей к разуме, обе модели теперь могут включать изображения в свой процесс аргументации, что означает, что они «способны думать с изображениями», чтобы иметь возможность думать с изображениями », думать», думать, с изображениями, которые способны думать, с изображениями, которые могут думать, «», «», «думать», «думать». Openaai объявилПолем С этим изменением обе модели могут интегрировать изображения в свою цепочку мышления. Модели O3 и O4-Mini могут быть более внимательно изучены об основном анализе изображений и даже манипулируют такими действиями, как резка, увеличение, переворачивание или обогащение деталями, чтобы вызвать визуальную информацию из изображений, которые могут улучшить способность CHATGPT предоставлять решения.

ЧИТАТЬ  Превосходит ли Google Gemini ChatGPT?

Внедрение Openai O3 и O4-Mini-Unser До сих пор интеллектуальные и способные модели.

Впервые наши модели аргументации могут использовать и комбинировать каждый инструмент в Aggregogen, включая веб -поиск, Python, анализ изображений, интерпретация файлов и генерацию изображений. pic.twitter.com/rdaqv0x0we

— Openai (@openai) 16 апреля 2025 года

В объявлении говорится, что модели объединяют визуальные и текстовые аргументы, которые могут быть интегрированы в другие функции CHATT, такие как веб -поиск, анализ данных и Codegen, и, как ожидается, станет основой для более продвинутых агентов ИИ с мультимодальным анализом.

Среди прочего, вы можете рассчитывать на сфотографировать большое количество элементов, таких как схемы потока или рукописные примечания, на картинки реальных объектов, и ожидают, что CHATGPT будет более глубоким пониманием лучшего вывода, даже без описательного текста. OpenAI приближается к Google Gemini, который предлагает впечатляющую способность интерпретировать реальный мир через живое видео.

Несмотря на смелые претензии, Openaai ограничивает доступ к оплачиваемым членам, предположительно, чтобы предотвратить его графические процессоры снова, потому что он стремится поддерживать расчет в соответствии с новыми аргументированными функциями. Отныне модели O3, O4-Mini и O4-Mini-High доступны исключительно для Chatgpt Plus, Pro и членов команды, в то время как пользователи предприятия и образования доступны через неделю. В то же время, бесплатные пользователи могут ограничить доступ к O4-Mini, если вы выберете кнопку «Think» в командной строке.






Source