Apple конкурирует с Google Lens и Live View в iOS 15, поскольку AR-утилиты становятся обыденностью

Крупнейшие потребительские предложения Google в области дополненной реальности — это Lens и Live View в Maps. На WWDC 2021 Apple объявила, что планирует запустить эти две функции в iOS 15 этой осенью.

Конкурент Apple Google Lens в основном доступен в приложениях Camera и Photos. Когда ваш телефон наведен на текст или вы просматриваете существующее изображение со словами, в правом нижнем углу появляется индикатор для начала анализа.

Это контрастирует с тем, что видоискатель Lens доступен из приложения Search, Assistant и главного экрана (как в виде значка приложения, так и в строке поиска Pixel Launcher), а также из Google Camera и других сторонних клиентов. На уже сделанных снимках Lens находится в Photos, а также доступен в Google Images. Для Google имеет смысл использовать визуальный поиск в своих инструментах поиска, но подход кажется немного чрезмерным.

В целом, возможности iOS попадают под зонтик «Intelligence». Однако Apple очень явно делает акцент на «Live Text», а не на визуальном поиске:

Реклама — прокрутите дальше, чтобы увидеть больше контента

Допустим, я только что закончил совещание с командой и хочу зафиксировать свои заметки с доски. Теперь я могу просто навести камеру на доску, и в правом нижнем углу появится индикатор. Когда я нажму на него, текст просто выскочит. Я могу использовать свои обычные жесты выделения текста. Просто перетащите и скопируйте. Теперь я могу переключиться на Mail, вставить их туда, а затем отправить Тиму.

Site default logo image

Стандартное поведение Apple — копирование текста. Это имеет смысл, поскольку оптическое распознавание символов (OCR) значительно экономит время по сравнению с ручным набором текста на изображении.

Между тем, «Look Up» и «Translate» являются более второстепенными и требуют явного подтверждения для просмотра, а не пассивного отображения всей информации одновременно. Apple осуществляет визуальный поиск по «распознанным объектам и сценам». Он может распознавать домашних животных/породы, виды цветов, произведения искусства, книги, природу и достопримечательности.

Визуальный поиск — это полезная функция, но скорее «развлекательная», чем то, что вы будете использовать каждый день. Приоритеты Apple во многом отражают текущее использование Google Lens. Тем не менее, визуальный поиск — это будущее. Хотя Apple может опоздать с созданием собственного поискового движка, сегодняшнее объявление отражает её стремление доминировать в AR-поиске, чтобы не зависеть от Google, когда появится форм-фактор AR-очков.

Еще одна функция, которая будет отлично работать на носимых устройствах, — это AR-навигация. Apple продемонстрировала возможность навести iPhone и сканировать здания в области, чтобы «сгенерировать высокоточное положение». Затем Apple Maps показывает подробные маршруты, такие как большие стрелки и названия улиц.

Как и Live View, Apple в первую очередь фокусируется на навигации. Google Maps уже пошел дальше и на I/O 2021 объявил о планах позволить вам использовать Live View вне навигации для сканирования окружения и просмотра деталей о местах.

Последнее объявление Apple в области AR сегодня — это создание 3D-моделей на macOS путем фотографирования объекта.

После выпуска iOS 15 этой осенью AR-утилиты станут обыденностью на двух крупнейших мобильных платформах. Эти возможности полезны на телефонах, но они будут действительно полезны на очках. Очевидно, что и Apple, и Google улучшают точность этих сервисов, прежде чем они займут центральное место на следующем форм-факторе. До этого еще далеко, но groundwork активно закладывается, и каждый скоро сможет увидеть это будущее.