
Вместе с первыми запущенными вчера сценариями использования, Assistant теперь добавляет еще одну функцию, о которой Google объявил в прошлом месяце. Тем временем, выбор текста в Google Lens для Assistant теперь широко доступен.
Пользователи Google Home теперь могут устанавливать напоминания на основе местоположения, которые будут срабатывать на телефонах при соответствующих обстоятельствах. Это позволяет устанавливать с умных колонок оповещения, которые ранее были доступны только через Assistant на телефоне, например, «купить еще кофе в продуктовом магазине».
Тем временем, Google Lens в Assistant (как отметил Android Police) также получил очень полезную возможность выбора любого текста в текущем кадре. Ранее ограниченная функцией Lens в Фото, эта функция в стиле Now on Tap очень мощная и может увеличить использование визуального поиска Google некоторыми пользователями.
После фокусировки на изображении Lens теперь анализирует его в течение секунды и выделяет весь распознанный текст. Нажатие на любой из них вызовет стандартные ползунки выбора текста Android, где пользователи могут настраивать, искать и копировать. Между тем, когда это уместно, Lens будет предлагать результаты поиска в нижней части экрана, но пользователи могут вернуться к выбору текста, проведя вниз по карточке.
Хотя текст сгруппирован и категоризирован, пользователи могут выбрать «выбрать все», регулируя ползунки. По нашим кратким тестам, функция работает достаточно хорошо, даже если просто навести на текст на экране.
Google объявил в прошлом месяце, что предварительная версия Lens будет расширена на «флагманские» устройства Android в ближайшие недели. Тем временем, Lens в Фото уже широко распространен для всех англоговорящих пользователей и скоро появится на iOS.
Смотрите 9to5Google на YouTube для получения большего количества новостей: