John Mueller a indiqué sur un forum que les fichiers robots.txt modifiés trop souvent pouvaient créer des crawls non désirés sur un site web. Normal...
John Mueller a indiqué sur un forum pour webmasters qu'il déconseillait de créer des fichiers robots.txt de façon dynamique (modifiés plusieurs fois par jour en fonction de certains critères comme l'heure ...