Meta добавляет «Live AI» для умных очков Ray-Ban, работающий как Project Astra от Google

Meta анонсировала новое обновление программного обеспечения для своих умных очков Ray-Ban, которое добавит функцию «Live AI». Эта функция сможет использовать видеопоток для сбора контекстной информации при ответах на вопросы, аналогично Project Astra от Google.

Новое обновление v11 для умных очков Ray-Ban Meta приносит несколько новых опций.

Включая интеграцию с Shazam, которая позволит пользователям спрашивать очки: «Hey Meta, что это за песня?», и результат будет прочитан вслух. Эта функция будет доступна в США и Канаде.

Помимо этого, Meta также представляет новые функции ИИ, и они выглядят привлекательно. Первая из этих новых функций — «Live AI», которая позволяет очкам Ray-Ban Meta захватывать видео, используемое затем ИИ для предоставления «информации в реальном времени без помощи рук» о том, что вы делаете в данный момент.

Реклама – прокрутите дальше для получения дополнительного контента

Meta заявляет, что в конечном итоге эти данные будут использоваться для предоставления предложений еще до того, как вы их попросите.

Первая — это Live AI, которая добавляет видео к Meta AI на ваших очках. Во время сеанса Live AI Meta AI может видеть то, что видите вы, непрерывно и общаться с вами более естественно, чем когда-либо прежде. Получайте помощь и вдохновение в реальном времени без помощи рук в повседневных делах, таких как приготовление пищи, садоводство или исследование нового района. Вы можете задавать вопросы, не говоря «Hey Meta», ссылаться на то, что вы обсуждали ранее в сеансе, и прерывать в любое время, чтобы задать уточняющие вопросы или сменить тему. В конечном итоге Live AI в нужный момент будет давать полезные предложения еще до того, как вы спросите.

«Live translation», тем временем, сможет переводить речь в реальном времени, причем речь другого человека будет воспроизводиться на английском языке через очки (а также транскрибироваться на вашем телефоне). Это работает для испанского, французского и итальянского языков.

Meta будет внедрять эти функции только через список ожидания, и пока только в США и Канаде.

Google работает над чем-то очень похожим.

На Google I/O 2024 в мае компания продемонстрировала «Project Astra», новый проект ИИ, который сможет использовать видеопоток для сбора контекста, а затем отвечать на вопросы, основываясь на увиденном. Google продемонстрировал эту функциональность на очках, но пока ничего не выпустил. Анонс Gemini 2.0 ранее в этом месяце позволил Google детализировать новые обновления для Astra: она сможет общаться на нескольких языках, хранить до 10 минут памяти, улучшать задержку и многое другое. Неясно, как «Live AI» от Meta будет сравниваться, но, безусловно, захватывающе видеть эту функциональность так скоро, особенно учитывая, что мы не увидим ее полной реализации для Google до следующего года.

Подробнее об умных очках: