Comment Google travaille sur son algorithme

Moteur de recherche, labo

Google, le site le plus visité au monde, soigne son algorithme de classement des pages dans les résultats des recherches. Il est intéressant de savoir, à la lecture de l'article de Saul Hansell dans le New York Time, que le PageRank, l'indice de popularité si connu, n'est jamais qu'un critère de score parmi de nombreux autres, et d'autre part que l'algorithme réel n'est pas quelque chose de figé, mais que les équipes de Google travaillent continuellement sur les analyses des résultats pour le corriger et contrôler le classement des pages.
Cela expliquera pour les webmasters pourquoi leur site fait quelquefois un bond en avant dans la liste des résultats et pourquoi aussi quelquefois il disparaît dans les profondeurs du classement sans raison, indépendamment de la pénalité dite "sandbox".

Le journaliste a eu l'occasion de passer une journée avec les ingénieurs de Google directement impliqués dans l'élaboration de l'algorithme, dans leur cadre de travail et de participer à leur réunion de travail.

On suit les indicateurs

Le travail de l'équipe est motivé par les plaintes des entreprises dont le site est mal classé sans raison, et par leur propre analyse des résultats. Il faut savoir que les 10000 employés possèdent chacun un "buganizer", un outil pour signaler les problèmes rencontrés dans une recherche et que toutes les remarques sont transmises au team de l'algorithme.
On a constaté par exemple que les recherches sur "révolution française" dirigeaient sur les articles de campagne électorale parce que les candidats parlaient de "révolution"! La correction à consisté simplement dans ce cas à donner plus de poids aux termes "révolution française" ou "french revolution" quand les termes sont accolés.

Les outils que l'on utilise

L'équipe dispose d'un outil spécial nommé "Debug", qui fait apparaître comment les ordinateurs évaluent chaque requête et chaque page Web. On peut voir ainsi quelle importance l'algorithme attribue aux liens sur une page, et les corriger si besoin.
Une fois le problème identifié, une nouvelle formule mathématique est mise au point pour traiter un cas de figure, et incorporée à l'algorithme.

On se base sur des modèles

A coté du PageRank et autres signaux, l'algorithme fait appel à plusieurs modèles.

(Voir références en bas).

La nouveauté est un dilemme

Un problème crucial pour l'équipe de développement, est celui de la fraîcheur. Faut-il privilégier les nouvelles pages, susceptibles de mieux refléter l'actualité, ou au contraire les plus anciennes qui ont déjà démontré leur qualité, par le nombre des backlinks notamment?
Google privilégiait toujours les dernières mais on s'est récemment rendu compte que ce n'était pas toujours le bon choix, aussi a-t'il fallu mettre au point un nouvel algorithme qui détermine quand l'utilisateur a besoin d'informations nouvelles et quand elles doivent être stables au contraire. Cela s'appelle la formule du QDF, "Query Deserves Freshness", en français "requête sur la nouveauté".
On peut déterminer qu'un sujet est chaud quand les blogs se mettent à en parler, ou quand il y a un afflux soudain de requêtes sur ce sujet.

Il faut réaliser des snippets

Un groupe travaille sur les snippets. Il s'agit d'améliorer la présentation des résultats, en extrayant des informations au sujet d'un site et en l'affichant pour renseigner les utilisateurs sur le site avant qu'ils ne cliquent sur le lien.

Maintenir un index gigantesque

Google dispose de centaines de milliers d'ordinateurs pour indexer les milliards de pages de tous les sites Web au monde... Le but est - indépendamment de l'addition de pages nouvelles qui est continuel - de pouvoir mettre à jour l'index tout entier en quelques jours!
Il est important de savoir que les centres de données stockent une copie de toutes les pages du Web pour pouvoir y accéder plus rapidement.

Ajouter de nouveaux signaux à coté du PageRank

Le PageRank élaboré aux débuts de la compagnie par Larry Page et Sergey Brin, est un indice correspondant aux nombres de liens sur une page, gage de qualité pour celle-ci. Mais il est largement dépassé. Google utilise maintenant 200 critères qu'il appelle "signaux". Cela dépend à la fois du contenu de la page, et de son évolution, des requêtes et du comportement des visiteurs... mais tout cela est décrit en détail dans le brevet du PageRank et la sandox.
A coté des signaux sur les pages et leur historique, Google utilise des classificateurs sur les requêtes, dont le but est de restituer le contexte de recherche, le cadre dans lequel elle se place. Par exemple, veut-on rechercher un produit pour l'acheter ou se renseigner quelque chose?

L'élément le plus connu de notre classement est le PageRank, un algorithme développé par Larry Page and Sergey Brin, qui ont fondé Google. PageRank est toujours utilisé actuellement, mais il fait maintenant partie d'un système plus important.

Le billet qui est la source de cette citation (voir plus bas) nous apprend que le PageRank a été modifié en Janvier 2008, ainsi n'est-il pas immuable!

Une quête de diversité dans les résultats

Une fois que des pages ont été sélectionnées et classées, certaines devraient occuper les dix premières positions, les plus avantageuses, mais ce n'est pas fini. Google veut ajouter une diversité de point de vue, par exemple des blogs et des sites commerciaux aussi des pages moins bien classées seront ajoutées en tête de classement, la première de chaque catégorie étant ainsi promue.

Toujours améliorer l'algorithme

Des groupes travaillent à l'amélioration de l'algorithme, d'autres opérent sur l'évaluation des résultats. C'est en temps réel que l'on évalue la qualité des réponses de l'algorithme, pour vérifier la pertinence des réponses, surtout avec les contrôle des améliorations dès qu'elles sont apportées. C'est le travail de statisticiens de mesurer la qualité des résultats.

Un groupe est consacré au spam et tous types d'abus comme le texte caché. Ce 'webspam' groupe, on l'apprend, travaille de concert avec le groupe Google Webmaster Central qui fournit des aides et des outils aux webmasters.

Et tout n'est pas dit...

Les techniques de Google semblent plutôt académiques, avec ses signaux et classificateurs, si l'on compare avec les concurrents comme Microsoft qui utilise des réseaux neuronaux. Mais on ne sait pas tout, Google conserve encore beaucoup de secrets, ne voulant pas révéler aux concurrents toutes ses techniques.

Références: Blog officiel de Google. (Anglais). Une partie des informations ci-dessus viennent d'un article de Saul Hansell publié dans le New York Times.