Однажды… осознал: Знакомимся с Android XR-очками от Google

В детстве мое первое представление о будущем технологий было сформировано аспектом «Звездного пути», отличным от большинства: абсолютной повсеместностью сенсорных экранов и планшетов (PADDs). Меня восхищала идея взаимодействия с информацией через прикосновения и возможность делать это где угодно, а не в фиксированном месте. Все это стало реальностью с iPhone и Android, и я живу этим каждый день.

Мое следующее видение будущего пришло с двухминутным концептуальным видео. Оно глубоко засело во мне: то, что придет на смену смартфону, — это информация, наложенная на поле зрения, по мере ее контекстуальной необходимости.

Появление чего-то там, куда вы уже смотрите, без необходимости что-либо делать — например, доставать телефон или поднимать запястье — делает информацию мгновенной. В контекстуальном плане, определяющим моментом этой концепции для меня стало приближение к станции метро и сообщение о том, что движение остановлено, с предложением пешеходного маршрута, который затем дается в реальном времени.

Это был 2012 год, и, используя все, что появилось с тех пор — даже технологии, представленные в начале 2024 года — казалось, что мы все еще в 5+ годах от этого.

Реклама — прокрутите дальше для получения контента

На прошлой неделе, в течение 20 минут, я прожил это будущее благодаря прототипу Android XR очков от Google. Это было великолепно и шокирующе реализовано.

Первое, что удалось Google — это физический размер. Это устройство с «монокулярным» (или одинарным) дисплеем и камерой в линзе было неотличимо по размеру и весу от современных Meta Ray-Bans. Этого совершенно нельзя сказать об умных очках с дисплеями в линзах, которыми я пользовался раньше.

Здесь разница в том, что этот дисплей предназначен в первую очередь для предоставления информации, которую можно быстро увидеть, а не для полноценного компьютера, что демонстрируют другие компании в области очков. В краткосрочной перспективе я не хочу просматривать веб-страницы в очках. (Их подход почти такой же, как когда смартфоны до iPhone пытались впихнуть парадигму настольных компьютеров на значительно меньший экран и потерпели неудачу. Это несколько понятная компенсация за отсутствие вычислительной платформы.)

К сожалению, Google не разрешил делать фотографии или видео прототипов, которые, на удивление, имели полноценные USB-C порты, включая прозрачные пластиковые, сквозь которые были видны все компоненты. С сегодняшним анонсом компания поделилась несколькими видео с точки зрения первого лица, и я подтверждаю, что показанный дисплей соответствует тому, что я видел.

То, что вы видите в очках Google, не занимает все поле зрения, но этого более чем достаточно для предоставления богатой, графической информации, включая четкий текст. Вывод экрана просто хорош. Я видел реальность с наложенной на нее информацией, без явной границы между тем, где дисплей начинается и заканчивается.

Я также использовал второй «бинокулярный» прототип с двумя дисплеями, причем корпус был немного более выраженным, но не абсурдно. Оправа не делает вас похожим на енота, и она позволила мне посмотреть видео размером с телефон, который держали на расстоянии вытянутой руки. Это было скорее демонстрацией технологических возможностей, чем ожидаемым поведением. Более реалистичный сценарий использования — предварительный просмотр изображения после его создания, что я и попробовал, чтобы оценить кадрирование.

В нем используется микроLED-технология Raxium, которую Google приобрел в 2022 году. Все еще на стадии исследований и разработок, Google заявляет, что это «уникальная монолитная RGB микроLED технология, использующая процесс на уровне пластин для получения всех цветов на одной панели без необходимости преобразования цвета».

Следующие вещи, которые удалось Google — это метод взаимодействия и набор функций.

На правом дужке есть сенсорная панель, с одной кнопкой на верхнем ребре и другой ниже. Верхняя кнопка делает снимки, а вторая активирует Gemini (в частности, Project Astra на базе Gemini 2.0).

Этот Gemini невероятно хорошо работал в качестве метода управления и преуспел в контекстной осведомленности. Как только Gemini включается, он остается активным. (Вы можете коснуться тачпада, чтобы поставить ассистента на паузу, и он перестанет слушать/смотреть). Я взял книгу и просто спросил «кто это написал», без необходимости что-либо предварять. Затем я открыл случайную страницу и попросил краткое изложение, что оно успешно сделало.

Я получил демонстрацию живого перевода — в отсылке к Google I/O 2022 — и это было идеально. Очки также могли переводить надписи. Глядя на обложку виниловой пластинки, я попросил Gemini воспроизвести песню с альбома, и YouTube Music, который был явно указан, начал воспроизведение.

Демонстрация навигации Google Maps показала следующее направление в поле зрения, а полная карта появилась, когда я посмотрел вниз — очень приятный дизайнерский ход. Качество было фантастическим, и это была мечта Live View AR. Примечательно, что эти две навигационные концепции были частью видения Glass. Я также получил уведомление Google Chat и смог ответить.

Когда я демонстрировал все эти возможности, они шли одна за другой. Никаких перезагрузок не было. Оригинальная сессия Gemini, которую я начал, продолжалась. Это было точно так же, как Gemini Live способен сегодня, но с добавлением зрения.

Что было феноменально в Astra, так это то, что сотрудники Google подсказывали мне, что говорить, когда я подходил к разным столам с предметами, которые нужно было поднять. Однако очки никогда не интерпретировали их голоса или мои боковые разговоры с ними как команду. Они реагировали только тогда, когда я намеревался поговорить с Gemini, и я заранее не проходил никакого обучения Voice Match.

Эти функции полезны и показывают, как Google создает для сегодняшнего дня, когда смартфон не исчезнет в ближайшее время, а Android XR перекладывает часть функций на сопряженное устройство, как и другие носимые устройства. (Я давно считаю, что концептуальное видео 2012 года охватило все функциональные признаки того, как выглядят успешные потребительские умные очки.) Это невероятно многообещающе и показывает, что эти прототипы находятся за пределами стадии технологической демонстрации. По сравнению с игрой в пинг-понг, я бы использовал эти навигационные возможности и уведомления каждый день. Существуют явные варианты использования, которые, я бы сказал, конкурируют с умными часами и превосходят их.

Если бы Google выпустил Project Glass Explorer для этого оборудования и установил цену, скажем, в 3499 долларов, я бы купил их и интегрировал в свою повседневную жизнь. Польза и качество были настолько очевидны для меня после 20 минут.

Судя по утечкам о работе Google в области AR, можно было бы подумать, что компания судорожно ищет решения, и что усилия страдают от худших тенденций Google в области перезапусков и смены направлений.

Поскольку я реально опробовал то, что Google уже подготовил — хоть и все еще на стадии исследований и разработок — я в восторге. Прототип в лаборатории, конечно, отличается от продукта, готового к массовому производству, но будущее выглядит ярко. Google уже реализует целевые размеры оборудования, варианты использования и Gemini в качестве методов ввода и вывода.