Si Google recommande toujours aux sites internet de créer des URLs et domaines distincts pour chaque langue pour l’optimisation de leur référencement, certains sites modifient le contenu automatiquement en fonction de la géolocalisation, Google vient d’annoncer qu’il était désormais capable de crawler et d’indexer ce type de contenu !
Google désormais capable de crawler un site avec différentes IPs locales !
Alors que Google se contentait jusqu’à présent de crawler et d’indexer le contenu d’un site dans sa langue principale sans prendre en compte l’affichage d’un contenu différent en fonction des pays, Google vient d’annoncer sur son blog qu’il était désormais capable de crawler le contenu affiché automatiquement en fonction de l’IP régionale d’un internaute.
Si les recommandations de Google ne changent pas pour optimiser un site à l’international (Extensions différentes (ou sous domaines), balises rel=alternate hreflang, …), cette annonce prouve la volonté de Google de mieux comprendre les sites internet qui proposent leur contenu en plusieurs langues en fonction de l’IP du visiteur, et ceci, sans avoir recours au changement d’extension de nom de domaine.
Attention : le fait que Google soit désormais capable de crawler ce type de contenu ne voudra pas dire qu’il favorisera le positionnement des sites concernés cependant ces mêmes sites pourront espérer voir indexer leur contenu en différentes langues.
Quels procédés Google va-t-il utiliser pour crawler ces sites accessibles en plusieurs langues en fonction des IPs ?
Alors que Google utilisait jusqu’à présent une unique IP Américaine pour crawler l’ensemble des sites internet avec son Google Bot, Google va désormais utiliser de nombreuses IPs différentes en provenance de nombreux pays pour crawler les sites internet comme les utilisateurs locaux.
Pour crawler les sites internet en tenant compte des paramètres régionaux, Google va utiliser deux types de configuration pour l’exploration :
L’exploration géodistribuée : le robot de Google utilisera, en plus de l’IP Américaine, de nombreuses IP locales pour crawler les sites internet en fonction de leur emplacement géographique.
L’exploration en fonction de la langue : lors de l’exploration de Googlebot, un champ « Accept-Language » est défini dans l’en-tête HTTP.
Pour plus d’informations, rendez-vous sur le centre d’aide de Google : https://support.google.com/webmasters/answer/6144055
Source : Google Webmaster Central
Pour mieux comprendre le crawl et l’indexation sur Google, QuickSprout à créé une infographie regroupant les principaux facteurs qui peuvent bloquer le crawl et l’indexation.
Fondateur de LEPTIDIGITAL et consultant SEO senior (à mes heures perdues), je suis un grand passionné de marketing digital et de SEO. Avant d’être indépendant à 100 %, j’ai travaillé en tant qu’SEO manager et responsable e-commerce pour différentes sociétés (Altice Media, Infopro Digital, Voyage Privé, Groupe ERAM). (Sur le plan perso, je suis un grand curieux hyperactif aussi passionné par l’IA, la photographie et les voyages !). PS : Si vous souhaitez me contactez, privilégiez LinkedIn ou Instagram. Pour me contacter : [email protected]