Les logs de votre serveur web sont une source riche et fiable en informations, encore faut-il les traiter, analyser et interpréter. C’est également dans les logs que sont stockés les traces du célèbre Googlebot. L’analyse de son crawl offre des informations précieuses pour le SEO : la fréquence par exemple, traduit l’intérêt que Google porte aux pages, aide à anticiper les baisses de position, et a contrario nous révèle les pages jugées comme les plus « pertinentes ». La cartographie dynamique du crawl peut aider à mieux comprendre comment Google « voit » nos pages.
Beaucoup de logiciels orientés « Data viz » permettent de représenter n’importe quels types de données mises en relation. Gephi est certainement l’un des plus populaires. Si sa prise en main ne se fait pas en 5mn, cet article orienté tutorial vous aidera à vous familiariser avec l’outil, et surtout à analyser plus finement le crawl du Googlebot.