Google vient de mettre à jour ses quotas mensuels et journaliers concernant les demandes d’indexation et de crawl envoyées via la fonctionnalité « Explorer comme Google » disponible dans Search Console. Voici ce qui a changé.
Google met à jour ses quotas concernant les demandes de crawl et d’indexation effectuées via la section « Explorer comme Google » de Search Console
Jusqu’à présent, les webmasters pouvaient explorer et afficher n’importe quelle URL de leur site puis demander à Google, via l’option « Demander une indexation« , de crawler, re-crawler ou d’indexer :
- cette URL uniquement,
- l’URL ainsi que ses liens directs.
Le quota mensuel pour les demandes de crawl ou d’indexation d’une URL unique était jusqu’à présent de 500 et aucune limite journalière n’était fixée. A partir d’aujourd’hui, les webmasters ne pourront soumettre plus que 10 URLs par jour au crawl ou à l’indexation par Google.
Si le webmaster souhaite que Google crawl et indexe l’URL ainsi que ces liens directs, la limite ne sera à présent plus de 10 demandes par mois mais de 2 demandes par jour maximum.
Voici un aperçu des anciennes limites telles qu’elles sont (encore) affichées sur la page d’aide en Français :
Source : https://support.google.com/webmasters/answer/6065812?hl=fr
Voici les nouvelles limites mises à jour sur la page d’aide dédiée en Anglais :
Source : https://support.google.com/webmasters/answer/6065812?hl=en
Rappel : à quoi sert la fonctionnalité « Demander une indexation » de la section « Explorer comme Google » de Search Console ?
L’option « Demander une indexation » qui s’affiche après avoir lancé l’exploration d’une page depuis la fonctionnalité « explorer comme Google » accessible dans Search Console permet de :
- Demander à Google d’indexer une page uniquement
- Demander à Google d’indexer une page et ses liens directs
- Demander à Google de recrawler (réindexer) une page connue pour faire en sorte que cette dernière soit mise à jour plus rapidement dans son index (peut être utile après avoir réalisé des modifications que l’on souhaite voir prises en compte rapidement par Google)
Cette fonctionnalité ne doit pas être utilisée pour demander l’indexation de chaque nouvelle page créée, Google recommande pour cela l’utilisation d’un sitemap déclaré dans le robots.txt.
Fondateur de LEPTIDIGITAL et consultant SEO senior (à mes heures perdues), je suis un grand passionné de marketing digital et de SEO. Avant d’être indépendant à 100 %, j’ai travaillé en tant qu’SEO manager et responsable e-commerce pour différentes sociétés (Altice Media, Infopro Digital, Voyage Privé, Groupe ERAM). (Sur le plan perso, je suis un grand curieux hyperactif aussi passionné par l’IA, la photographie et les voyages !). PS : Si vous souhaitez me contactez, privilégiez LinkedIn ou Instagram. Pour me contacter : [email protected]