
Виртуальные ассистенты — это не совсем новая технология, но за последние пару лет они стали играть все более важную роль в нашей повседневной жизни. Amazon получила большое преимущество благодаря своей платформе Alexa, но Google быстро догнала с собственным Ассистентом. Теперь исследование подтверждает то, что мы и так знали — Google лучше.
Если вы когда-либо использовали Ассистента против Alexa, вы, вероятно, обнаружили, что вариант от Google, как правило, точнее. На этой неделе были опубликованы два исследования от Stone Temple Consulting и ROAST (через SearchEngineLand), которые дают нам некоторое представление о том, чем отличаются эти два варианта.
Во-первых, есть отчет от Stone Temple, являющийся продолжением аналогичного исследования прошлого года. В этом исследовании сравниваются различные ассистенты с более чем 5000 различных запросов, оценивая их по количеству отвеченных вопросов и точности.
Здесь Google Assistant опередил всех конкурентов. В лучшем случае Google смог ответить на более чем 90% вопросов с точностью чуть менее 80%. Однако, что интересно, эти показатели падают, когда вы переключаетесь с Ассистента на телефоне на Ассистента Google Home. Согласно исследованию, на Home он смог ответить только примерно на 85% вопросов, при этом точность составила около 65%.
Однако, если сравнить это с конкурентами, это все равно впечатляет. Удивительно, но Cortana от Microsoft занимает второе место, всего на несколько пунктов отставая от Google Home (хотя и с возможностью ответить на большее количество из 5000 вопросов).
Однако Amazon Alexa демонстрирует огромный прогресс между исследованиями 2017 и 2018 годов. Обновленное исследование показало, что Alexa смогла ответить на более чем 80% заданных вопросов, тогда как ранее она отвечала только примерно на 50%.
Если вам было интересно, Apple Siri заняла последнее место, ответив едва на 80% вопросов, причем только 40% из этих ответов были точными.
Наряду с исследованием Stone Temple, ROAST также протестировали Google Assistant. Это исследование было посвящено исключительно Ассистенту и включало в общей сложности 10 000 вопросов. Вопросы были разделены на 22 категории, включая гостиницы, рестораны, образование и информацию о путешествиях. В этом исследовании Google Assistant смог ответить примерно на 45% заданных вопросов.
Интересно, что исследование показало, что Google Assistant не всегда использовал Featured Snippet для получения результатов. Как указывает исследование:
Одно из ключевых наблюдений, которое мы обнаружили, заключается в том, что результат Google Assistant не всегда совпадал с результатом, найденным в блоке ответов Featured Snippet в поисковой системе. Иногда ассистент не зачитывал результат (даже если существовал блок ответов Featured Snippet), и у нас также были случаи, когда ассистент зачитывал результат с другого веб-сайта, отличного от того, что был указан в блоке ответов Featured Snippet.
Результаты исследования можно увидеть ниже, а также легенду для чтения данных.
Посетите 9to5Google на YouTube для получения дополнительных новостей: