
Для двух продуктов, которые должны быть очень важны для Google, Assistant и Lens провели тихий 2021 год по сравнению даже с предыдущим годом. К счастью, отсутствие изменений, похоже, связано с тем, что предстоящие достижения еще не готовы.
Оглядываясь на прошедший год, самым большим и значительным шагом в развитии Assistant стало внедрение режима вождения. Хотя замена «Android Auto для телефонов» впервые появилась в Google Картах в конце 2020 года, полноценный интерфейс — который изначально планировался на лето 2019 года — с домашним экраном появился в приложении Google только в сентябре этого года. Даже с этим дополнением, не так много людей пользуются режимом вождения Assistant.
Когда он был впервые анонсирован на I/O 2019, продукт под брендом Assistant, заменяющий версию для Android, казался большим знаком того, куда смещается центр власти в Google. В то время казалось, что Google хочет, чтобы Assistant делал и охватывал все, поскольку голос был методом взаимодействия будущего. Умный помощник должен был связать все существующие продукты Google и даже форм-факторы, которые еще не появились.


Спустя несколько лет Assistant кажется наиболее подходящим для телефонов и умных дисплеев/динамиков. Это лучший способ управлять последним форм-фактором, а подавляющее большинство пользователей телефонов ежедневно сталкиваются с ситуациями, требующими использования без рук. Однако Assistant далеко не является основным интерфейсом, который представляли себе авторы научной фантастики/«Звездного пути» — который был источником вдохновения для Google. Сенсорный ввод просто быстрее, даже если не учитывать, что современные умные помощники не так уж и способны и работают только в ограниченных сценариях.
Я считаю, что Google прекрасно осведомлен об ограничениях своего умного помощника сегодня. На конференции I/O 2021 компания представила LaMDA (Language Model for Dialogue Applications) как «прорывную диалоговую технологию», которая может «свободно общаться на бесконечное множество тем, что, по их мнению, может открыть более естественные способы взаимодействия с технологиями и совершенно новые категории полезных приложений».
Нетрудно представить, что такое усовершенствование может быть предназначено для Google Assistant — хотя оно может быть нацелено и на Поиск. Надеюсь, этот прорыв позволит людям естественно разговаривать с компьютерами, а не заставлять их адаптироваться к новому устройству. Успех LaMDA внесет большой вклад в развитие видения Google «ambient computing» (окружающие вычисления), согласно которому любое устройство в вашей близости сможет адекватно выполнять задачу.

Тем не менее, пока мы ждем этого основного фундаментального усовершенствования, передовые разработки Assistant остаются ограниченными телефонами Pixel. Чуть более чем через два года после запуска Google Assistant следующего поколения (NGA) на Pixel 4, обработка на устройстве для ускорения распознавания голоса и поддержки автономных команд по-прежнему ограничена подмножеством телефонов. Таким образом, только пользователи Pixel имеют голосовой ввод Assistant и возможность пропускать «Hey Google» с помощью непрерывного разговора и быстрых фраз. Что еще более важно, это ограничение означает, что сторонние разработчики имеют мало стимулов делать свои приложения и задачи удобными для навигации только с помощью голоса и постоянно слушающего микрофона. Стимулирование разработки могло бы значительно повысить полезность голосовых помощников и сделать их действительно новым методом взаимодействия, который мог бы конкурировать с сенсорным вводом и другими физическими способами ввода.
Пока неизвестно, когда NGA станет более широко доступен на других телефонах, хотя мы сообщали, что он может появиться на Pixel Watch в следующем году. Опыт использования умных помощников на носимых устройствах должен значительно улучшиться. По состоянию на переход с Wear OS 2 на 3, сенсорное взаимодействие является основным способом, которым владельцы носимых устройств Google взаимодействуют со своими устройствами из-за врожденной ненадежности и ограничений Assistant на этом форм-факторе. Экран и так крошечный, а голос мог бы значительно повысить функциональность умных часов.


Тем временем, Assistant на наушниках — это всего лишь расширение возможностей подключенного телефона, а опыт работы с Chrome OS вызывает вопрос «Зачем?». Использование Assistant на Chromebooks — это просто не самый быстрый способ выполнить какую-либо задачу, и этот опыт сильно нуждается в переосмыслении, если отступление Microsoft Cortana в Windows является каким-либо индикатором.
Голос — если не считать будущих достижений в области интерфейсов мозг-компьютер — будет очень важен для умных очков. Да, вы можете добавить тачпад на дужку или управлять устройством через умные часы или другую сенсорную поверхность на запястье, но голосовые команды, вероятно, останутся самым естественным методом взаимодействия для того, что мы носим на лице. Независимо от текущего состояния голосовых помощников, их постоянные инновации (для Google и других) имеют решающее значение для того, что будет дальше в технологиях.
Другая важная технология, которая необходима, — это визуальный поиск и осведомленность. Google Lens провел тихий год после большого 2020 года, который ознаменовался визуальным редизайном, новыми фильтрами для домашних заданий и мест, а также полезной функцией OCR «копировать на компьютер».
Для сравнения, в 2021 году Lens получил измененный значок, новый пользовательский интерфейс, который отдает приоритет анализу существующих изображений, а не съемке в реальном времени, и большую заметность в Pixel Launcher. Инструмент визуального поиска также появится на настольном Chrome в качестве заметного расширения. Важнейшим событием стал предварительный показ того, как предстоящее фундаментальное обновление MUM (Multitask Unified Model) позволит вам сделать фотографию и задать по ней вопросы.


В качестве примера Google привел фотографию сломанной детали велосипеда, название которой вы не знаете, и вопрос «Как это починить».
Объединяя изображения и текст в один запрос, мы облегчаем визуальный поиск и выражение ваших вопросов более естественными способами.
Это очень многообещающее развитие и явный кандидат на роль основного метода взаимодействия для очков.
MUM в Lens будет доступен в ближайшие месяцы и станет новейшим способом Google привлечь пользователей к своему инструменту визуального поиска, у которого теперь появился конкурент в лице функции Visual Look Up в iOS 15. Ранее в этом году компания сообщила, что Lens используется 3 миллиарда раз в месяц. Несмотря на то, что он наполнен полезными утилитами, такими как OCR и перевод, он по-прежнему ищет «killer application» (приложение, которое определяет успех продукта) на телефонах.
В Google застой иногда является признаком того, что продукт больше не получает активной разработки или интереса со стороны руководства. В данном случае Assistant и Lens остаются жизненно важными для будущего Google, а этот год можно списать на временный застой из-за того, что компания столкнулась с текущими возможностями современных технологий.