Une enquête approfondie menée par Authoritas sur une base de 60 millions de mots-clés dévoile comment Google déforme intentionnellement les données de volumes de recherche à travers un système complexe de « buckets ». Cette pratique soulève de sérieuses interrogations quant à la transparence du géant du web et son impact dans différents secteurs, de la santé publique à la planification économique.
Ce qu'il faut retenir :- Google utilise environ 60 « buckets » prédéfinis pour regrouper les volumes de recherche, masquant les variations réelles du comportement des utilisateurs.
- Pour qu'un changement de volume soit visible, il faut une variation de 18 % à 100 % selon les tranches, ce qui cache de nombreuses tendances importantes.
- La victoire du Département de la Justice américain contre Google en août 2024 ouvre la voie à une possible réforme de l'accès aux données de recherche.
Lorsque vous utilisez Google Ads Keyword Planner ou consultez des données de volume de recherche, vous pensez probablement obtenir des chiffres relativement précis. La réalité est en fait tout autre. Une analyse approfondie réalisée par l’éditeur Authoritas sur 60 millions de mots-clés révèle que Google regroupe systématiquement les volumes de recherche dans environ 60 « buckets » ou tranches de volume prédéfinies.
Ce système de classification est particulièrement pernicieux, car il masque les variations réelles du comportement des utilisateurs. Par exemple, pour un mot-clé affichant 1 000 recherches mensuelles, il faut une augmentation de 30 % (jusqu'à 1 300) pour constater un changement à la hausse, ou une baisse de 18 % (jusqu'à 880) pour observer une diminution. Plus le volume est élevé, plus ces écarts deviennent importants.
L'impact sur différentes tranches de volumePour les mots-clés à faible volume (10 - 100 recherches), le système est particulièrement volatil, nécessitant des variations de 22 % à 100 % pour passer d'une tranche à l'autre. Les termes à volume moyen (100 - 10 000 recherches) sont plus stables, mais impliquent encore des changements significatifs pour refléter les tendances réelles.
La situation est encore plus problématique pour les mots-clés à fort volume. Au-delà de 100 000 recherches mensuelles, le système devient en effet tellement rigide qu'il peut masquer des tendances saisonnières importantes ou des changements significatifs dans le comportement des utilisateurs.
Google Trends : un outil trop limité ?Bien que la firme de Mountain View propose Google Trends comme un outil gratuit pour analyser les tendances de recherche, ses limitations le rendent insuffisant pour une analyse approfondie. L'outil ne fournit que des valeurs relatives sur une échelle de 0 à 100, sans donner accès aux volumes de recherche réels. De plus, il est limité à la comparaison de seulement 5 termes à la fois et ne permet pas d'export massif de données.
Malgré des avantages pour identifier les tendances saisonnières et les variations géographiques, Google Trends souffre de problèmes d'échantillonnage pour les termes à faible volume et ne propose pas d'accès via API. Ces contraintes en font un outil complémentaire plutôt qu'une alternative viable aux données de volume de recherche précises.
Un impact bien au-delà du SEOLa manipulation des données orchestrée par Google n’impacte pas seulement les professionnels du référencement. Elle a des répercussions importantes sur de nombreux secteurs :
- Santé publique : Les tendances liées aux symptômes de maladies peuvent paraître stables alors même qu'une augmentation significative est en cours, retardant potentiellement la réponse des services de santé.
- Planification économique : Les indicateurs économiques tirés des tendances de recherche sont imprécis, compliquant la prévision du chômage ou l'analyse des tendances liées à la consommation.
- Gestion des urgences : En cas de catastrophe naturelle ou d'incident majeur, les données agrégées et retardées d'un mois sont pratiquement inutiles pour la gestion de crise.
- Innovation et recherche : Les startups peuvent avoir du mal à identifier de véritables opportunités de marché, tandis que la recherche académique perd en précision dans l'analyse des tendances sociales.
La récente victoire du Département de la Justice américain contre Google en août 2024 offre de nouvelles perspectives intéressantes. Les experts plaident pour un accès plus équitable et transparent aux données de recherche, comprenant :
- Des volumes de recherche réels et non agrégés
- Une répartition par appareil (ordinateur/mobile/tablette)
- Des données géographiques précises
- Des tendances en temps réel
Un tel changement pourrait non seulement concourir à l’amélioration de la précision des analyses marketing, mais aussi à renforcer la capacité de réponse dans des domaines critiques comme la santé publique ou la gestion des crises.
L’article "Voici comment Google manipule les données de recherche" a été publié sur le site Abondance.