• 30 octobre 2019
  • journaldunet
  • 0

Si l’une des choses que j’ai apprises au cours des 15 dernières années de recherche sur Google Search, c’est que la curiosité des gens est infinie. Nous voyons des milliards de recherches chaque jour, et 15% de ces requêtes sont des requêtes que nous n’avons jamais vues auparavant. Nous avons donc créé des moyens de renvoyer des résultats pour des requêtes que nous ne pouvons pas anticiper.

Lorsque des gens comme vous ou moi-même venons à Search, nous ne sommes pas toujours sûrs de la meilleure façon de formuler une requête. Nous ne saurons peut-être pas quels mots utiliser, ni comment épeler quelque chose, car souvent, nous cherchons à rechercher pour apprendre – nous n’avons pas nécessairement les connaissances nécessaires pour commencer.

À la base, la recherche concerne la compréhension de la langue. C’est notre travail de déterminer ce que vous recherchez et de faire ressortir des informations utiles sur le Web, quelle que soit la manière dont vous épelez ou combinez les mots dans votre requête. Bien que nous ayons continué à améliorer nos capacités de compréhension de la langue au fil des ans, nous ne réussissons parfois pas tout à fait comme avant, en particulier avec des requêtes complexes ou conversationnelles. En fait, c’est l’une des raisons pour lesquelles les gens utilisent souvent «mots-clés», en tapant des chaînes de mots qu’ils croient que nous comprendrons, mais ne savent pas comment ils se sont naturellement posés une question.

Grâce aux dernières avancées de notre équipe de recherche dans la science de la compréhension du langage – rendue possible par l’apprentissage automatique – nous apportons une amélioration significative à la compréhension des requêtes, représentant le plus grand bond en avant de ces cinq dernières années. le plus grand saut dans l’histoire de Search.

Appliquer des modèles BERT à la recherche
L’année dernière, nous avons introduit et ouvert une technique basée sur un réseau de neurones pour la pré-formation au traitement du langage naturel (PNL) appelée Représentations de codeur bidirectionnel à partir de Transformers, ou BERT, en abrégé. Cette technologie permet à quiconque de former son propre système de réponse aux questions à la pointe de la technologie.

Cette avancée est le résultat de recherches de Google sur les transformateurs: des modèles qui traitent les mots par rapport à tous les autres mots d’une phrase, plutôt que l’un après l’autre. Les modèles BERT peuvent donc considérer le contexte complet d’un mot en regardant les mots qui le précèdent et le suivent, ce qui est particulièrement utile pour comprendre l’intention des requêtes de recherche.

Mais ce n’est pas seulement des progrès logiciels qui peuvent rendre cela possible: nous avions aussi besoin d’un nouveau matériel. Certains des modèles que nous pouvons créer avec BERT sont si complexes qu’ils repoussent les limites de ce que nous pouvons faire avec du matériel traditionnel. C’est pourquoi nous utilisons pour la première fois les derniers TPU Cloud afin de fournir des résultats de recherche et de vous fournir rapidement des informations plus pertinentes. .

Casser vos requêtes

C’est donc beaucoup de détails techniques, mais que signifie-t-il pour vous? En appliquant des modèles BERT à la fois aux extraits de classement et aux extraits sélectionnés dans Search, nous sommes en mesure de faire un travail bien meilleur en vous aidant à trouver des informations utiles. En fait, en ce qui concerne le classement des résultats, BERT aidera Search à mieux comprendre une recherche sur 10 aux États-Unis en anglais, et nous en tiendrons à plus de langues et de locaux au fil du temps.

En particulier pour les requêtes plus longues et plus conversationnelles, ou les recherches où les prépositions comme « pour » et « pour » importent beaucoup pour la signification, Search pourra comprendre le contexte des mots de votre requête. Vous pouvez chercher d’une manière qui vous semble naturelle.

Pour lancer ces améliorations, nous avons effectué de nombreux tests pour nous assurer que les modifications sont réellement plus utiles. Voici quelques exemples de notre processus d’évaluation démontrant la capacité du BERT à comprendre l’intention qui sous-tend votre recherche.

Voici une recherche sur «2019, les voyageurs brésiliens ayant besoin d’un visa». Le mot «to» et sa relation avec les autres mots de la requête sont particulièrement importants pour comprendre le sens. Il s’agit d’un Brésilien se rendant aux États-Unis, et non l’inverse. Auparavant, nos algorithmes ne comprenaient pas l’importance de cette connexion et nous avons renvoyé des résultats concernant les citoyens américains voyageant au Brésil. Avec BERT, Search est capable de saisir cette nuance et de savoir que le mot très courant «to» (importer) a beaucoup d’importance ici, et que nous pouvons fournir un résultat beaucoup plus pertinent pour cette requête.