Исследования показывают, что Google Assistant — самый точный виртуальный ассистент, а Alexa — «наиболее улучшенный»

Виртуальные ассистенты — это не совсем новая технология, но за последние пару лет они стали играть все более важную роль в нашей повседневной жизни. Amazon получила большое преимущество благодаря своей платформе Alexa, но Google быстро догнала с собственным Ассистентом. Теперь исследование подтверждает то, что мы и так знали — Google лучше.

Если вы когда-либо использовали Ассистента против Alexa, вы, вероятно, обнаружили, что вариант от Google, как правило, точнее. На этой неделе были опубликованы два исследования от Stone Temple Consulting и ROAST (через SearchEngineLand), которые дают нам некоторое представление о том, чем отличаются эти два варианта.

Во-первых, есть отчет от Stone Temple, являющийся продолжением аналогичного исследования прошлого года. В этом исследовании сравниваются различные ассистенты с более чем 5000 различных запросов, оценивая их по количеству отвеченных вопросов и точности.

Реклама — прокрутите дальше для получения дополнительного контента

Здесь Google Assistant опередил всех конкурентов. В лучшем случае Google смог ответить на более чем 90% вопросов с точностью чуть менее 80%. Однако, что интересно, эти показатели падают, когда вы переключаетесь с Ассистента на телефоне на Ассистента Google Home. Согласно исследованию, на Home он смог ответить только примерно на 85% вопросов, при этом точность составила около 65%.

Однако, если сравнить это с конкурентами, это все равно впечатляет. Удивительно, но Cortana от Microsoft занимает второе место, всего на несколько пунктов отставая от Google Home (хотя и с возможностью ответить на большее количество из 5000 вопросов).

Однако Amazon Alexa демонстрирует огромный прогресс между исследованиями 2017 и 2018 годов. Обновленное исследование показало, что Alexa смогла ответить на более чем 80% заданных вопросов, тогда как ранее она отвечала только примерно на 50%.

Если вам было интересно, Apple Siri заняла последнее место, ответив едва на 80% вопросов, причем только 40% из этих ответов были точными.

Наряду с исследованием Stone Temple, ROAST также протестировали Google Assistant. Это исследование было посвящено исключительно Ассистенту и включало в общей сложности 10 000 вопросов. Вопросы были разделены на 22 категории, включая гостиницы, рестораны, образование и информацию о путешествиях. В этом исследовании Google Assistant смог ответить примерно на 45% заданных вопросов.

Интересно, что исследование показало, что Google Assistant не всегда использовал Featured Snippet для получения результатов. Как указывает исследование:

Одно из ключевых наблюдений, которое мы обнаружили, заключается в том, что результат Google Assistant не всегда совпадал с результатом, найденным в блоке ответов Featured Snippet в поисковой системе. Иногда ассистент не зачитывал результат (даже если существовал блок ответов Featured Snippet), и у нас также были случаи, когда ассистент зачитывал результат с другого веб-сайта, отличного от того, что был указан в блоке ответов Featured Snippet.

Результаты исследования можно увидеть ниже, а также легенду для чтения данных.


Посетите 9to5Google на YouTube для получения дополнительных новостей: