Google Search AR начинает внедрять смешивание/перекрытие объектов на основе глубины

Ранее в этом месяце Google AR & VR объявила, что телефоны с ARCore могут определять глубину с помощью одной линзы. Смешивание объектов теперь начинает появляться в Google Search AR.

Используя одну RGB-камеру, новый API ARCore Depth использует алгоритмы определения глубины по движению. Карта глубины создается путем захвата «нескольких изображений с разных углов и их сравнения при перемещении телефона для оценки расстояния до каждого пикселя».

Это, в свою очередь, позволяет осуществлять перекрытие — «возможность цифровым объектам точно появляться перед или за реальными объектами». Это гарантирует, что объекты не просто висят в воздухе или размещены в физически невозможном положении.

Реклама — прокрутите для получения дополнительного контента

Для конечных пользователей Google называет этот принцип AR «смешиванием объектов». Одним из первых мест, где вы можете опробовать его, является поиск в Google при поиске 3D-объектов, таких как животные, или «Поиск Санты».

При активации в правом верхнем углу появляется новый круглый значок с полузатемнением. Также под ним появляется переключатель «Смешивание объектов включено»/«Смешивание объектов выключено» для подтверждения состояния, а Google также предлагает первоначальный диалог при запуске:

Объект адаптируется к вашему окружению, смешиваясь с реальным миром.

При запуске Google предоставил пример с AR-котом, а живая демонстрация показана выше. Примеры, которые мы зафиксировали, явно показывают, что ARCore распознает поверхности, но использует прозрачность, а не полностью скрывает объект. В AR «имея 3D-понимание мира», ощущения станут намного более реалистичными, захватывающими и менее разрушающими реальность.

Смешивание объектов в Google Search AR начало развертываться ранее в этом месяце на некоторых из 200 миллионов устройств Android с поддержкой ARCore. Оно еще не стало широко доступным для всех пользователей.