Google научится лучше понимать естественные поисковые запросы — «самый большой скачок за 5 лет»

Сегодня Google объявил о том, что считает «одним из самых больших скачков вперед в истории Поиска». Применяя технику на основе нейронных сетей, известную как BERT, поисковая система станет лучше понимать вопросы, задаваемые естественным, повседневным языком.

Компания представила это изменение, признав, что возможности понимания языка в Поиске все еще могут давать сбои при работе со сложными или диалоговыми запросами.

Фактически, это одна из причин, по которой люди часто используют «ключевые слова», набирая строки слов, которые, как они думают, мы поймем, но которые на самом деле не соответствуют тому, как они естественным образом задали бы вопрос.

Чтобы люди могли задавать вопросы естественным образом, Google применяет «метод предварительного обучения нейронных сетей для обработки естественного языка (NLP), называемый Bidirectional Encoder Representations from Transformers».

Реклама — прокрутите, чтобы увидеть больше контента

Эта модель, также известная как BERT, анализирует слова в контексте всего поискового запроса, а не по одному слову за раз. Поиск станет лучше понимать нюансы, тонкости и выяснять, что на самом деле спрашивает пользователь, получая полный контекст. Эти улучшения позволят отображать более релевантные ссылки и избранные фрагменты.

По количественным показателям, благодаря BERT Google сможет лучше понимать один из десяти вопросов. В настоящее время эта функция доступна только для американского английского языка, но со временем будет расширена на другие страны и языки. Внутренне этот метод настолько сложен, что для поиска используются Cloud TPUs, предназначенные для машинного обучения.

Особенно для более длинных, диалоговых запросов или поисков, где предлоги, такие как «for» и «to», имеют большое значение для смысла, Поиск сможет понять контекст слов в вашем запросе. Вы можете искать так, как вам удобно.

Google привел некоторые примеры запросов, которые улучшились с помощью BERT (справа).