Вчера компания Apple провела большое мероприятие и анонсировала Apple Visual Intelligence во время презентации iPhone. Оно позволяет фотографировать что угодно и использует Apple Intelligence для локального поиска, покупок, помощи в выполнении домашних заданий и многого другого.

Apple использует Google, ChatGPT и, я думаю, возможно, Yelp и OpenTable с Apple Maps для этой интеграции. И да, это очень похоже на Google Lens…

Эта часть лекции начинается примерно 57-я минута но позвольте мне поделиться скриншотами этого.

Вот мужчина фотографирует вход в ресторан, чтобы узнать о ресторане больше — я полагаю, на Yelp и OpenTable?

Локальная камера Apple Visual Intelligence

Вот результаты:

Камера Apple Visual Intelligence Local2

Затем он фотографирует велосипед и ищет в Google товар и цены:

Камера Apple Visual Intelligence Google Покупки

Результаты выглядят индивидуально:

Камера Apple Visual Intelligence Google Shopping 2

А затем получите помощь с домашним заданием с помощью ChatGPT:

Чат с камерой Apple Visual Intelligence

Вот встроенное видео во время запуска, если вы хотите посмотреть:

Таким образом, Apple реализует ИИ как инструменты, по сути, интегрированные приложения.

Мысли?

Обсуждение на форуме ниже Х.

Source

ЧИТАТЬ  Google расследует проблему, из-за которой сайты для взрослых не ранжируются по названию