Вчера компания Apple провела большое мероприятие и анонсировала Apple Visual Intelligence во время презентации iPhone. Оно позволяет фотографировать что угодно и использует Apple Intelligence для локального поиска, покупок, помощи в выполнении домашних заданий и многого другого.
Apple использует Google, ChatGPT и, я думаю, возможно, Yelp и OpenTable с Apple Maps для этой интеграции. И да, это очень похоже на Google Lens…
Эта часть лекции начинается примерно 57-я минута но позвольте мне поделиться скриншотами этого.
Вот мужчина фотографирует вход в ресторан, чтобы узнать о ресторане больше — я полагаю, на Yelp и OpenTable?
Вот результаты:
Затем он фотографирует велосипед и ищет в Google товар и цены:
Результаты выглядят индивидуально:
А затем получите помощь с домашним заданием с помощью ChatGPT:
Вот встроенное видео во время запуска, если вы хотите посмотреть:
Таким образом, Apple реализует ИИ как инструменты, по сути, интегрированные приложения.
Мысли?
Обсуждение на форуме ниже Х.