Depuis de nombreuses années maintenant, les internautes critiquent Google pour les résultats de recherche qui se sont dégradés.
Les pages web et les articles sans intérêt pondus à la chaîne par des sites dopés aux techniques d’optimisation squattent les premières pages de Google.
L’algorithme de Google était déjà loin d’être parfait, mais ces derniers temps, il est devenu bien difficile de trouver un résultat pertinent.
Bien sûr, Google n’est pas resté les bras ballants face aux contenus à faible valeur ajoutée.
Dans ce contexte, le moteur de recherche a annoncé publiquement des changements.
Cette démarche s’explique par la volonté du groupe de prévenir les utilisateurs que les résultats auxquels ils se sont habitués pourraient changer dans les prochaines semaines.
Pour ces contenus de qualité médiocre, Google a affiné ses systèmes de classement pour mieux déterminer si les pages web sont inutiles.
Google a identifié plusieurs comportements qui pourront être sanctionnés dans ses résultats de recherche.
On peut évoquer le fait qu’un site web considéré comme sérieux peut ainsi héberger du contenu de faible qualité fourni par un tiers pour grimper rapidement et artificiellement les échelons des résultats de recherche, en profitant de la bonne réputation du site. Ce comportement, prévient le moteur de recherche, sera sanctionné.
Ainsi, Google donne jusqu’au 5 mai pour que les sites qui s’adonnent à cette pratique y mettent fin.
Qu’est-ce qu’un « contenu de qualité » pour Google ?
Le contenu que nous produisons est destiné à une audience humaine. Mais c’est la façon dont les moteurs de recherche traduisent la perception humaine, et intègrent la notion de qualité à leur fonctionnement pour la constitution de leur index, qui va déterminer la performance d’un site dans leurs pages de résultats. La notion de qualité impacte donc le comportement des moteurs de recherche à plusieurs niveaux.
Les moteurs de recherche détectent d’abord de manière directe la qualité perçue par les internautes, au travers de l’analyse de leur comportement.
Par exemple, si les internautes ont trouvé la page dans les résultats de recherche, cliquent sur le lien mais ne restent pas sur la page, Google le saura.
Il pourra mesurer le taux de rebond, en déduire que le contenu est peu intéressant ou répond mal à la requête, et tenir compte de ce feedback humain pour modifier ses résultats.
Avant d’apparaître dans une page de résultats, une page doit avoir été explorée et indexée par le moteur de recherche. Or, la qualité perçue par les robots va impacter le fait qu’une page sera explorée ou non.
Si des pages, voire des sections entières d’un site, sont de faible qualité, les moteurs de recherche peuvent décider de leur affecter une priorité très basse dans leur algorithme d’exploration, en leur attribuant peu ou pas de budget de crawl. Si la page n’est pas crawlée, elle ne pourra pas être indexée.
Elle ne pourra en aucun cas apparaître dans les résultats, quand les internautes posent une question à laquelle la page pourrait peut-être répondre.
Puisque la qualité du contenu des pages a un impact aussi fort sur le trafic organique du site, il est indispensable d’analyser la qualité du contenu d’un site comme le ferait un moteur de recherche.
Pour ne rien rater de l’actualité dans le monde, suivez-nous sur TikTok en cliquant ici .