Google a mis à jour, ce Lundi 27 Octobre, ses guidelines concernant tous les aspects techniques liés à la création de site web et l’indexation. Il est désormais fortement recommandé d’autorisé l’accès aux fichiers CSS et Javascript dans le Robots.txt, sous peine de se voir moins bien classé en SEO !
Google vous conseille de ne pas bloquer les fichiers CSS, Javascript dans le Robots.txt !
Alors que des rumeurs circulaient sur ce sujet depuis quelques mois, Google affiche désormais clairement dans ses consignes aux Webmasters que bloquer le CSS, le Javascript du crawl des robots Google pourra avoir des impacts négatifs sur vos sites internet. Si vous bloquer actuellement ses fichiers dans votre fichier robots.txt, il vous est fortement conseillé de le modifier pour autoriser le crawl de ces derniers par GoogleBot, le robot explorateur de Google.
Google insiste bien sur le fait que bloquer ces fichiers pourra directement porter atteinte à l’indexation de votre site sur Google mais aussi à la manière dont ce dernier sera affiché à l’internaute (sur Google Chrome notamment). Pierre Far, qui a rédigé l’annonce sur le blog de Google, précise bien que le fait de bloquer le CSS et le Javascript à Google pourra résulter dans des positionnements SEO moins bons ! Si Google utilisait déjà ses facteurs dans le positionnement de sites auparavant, c’est désormais officiel ! Le bloquage, dans le robots.txt, de ce type de fichiers, aura donc un impact négatif sur vos positionnements dans les résultats de recherche naturels de Google !
Google Bot analyse désormais le CSS et le Javascript, en plus du HTML !
Alors que précédemment le bot de Google ne pouvait voir d’un site internet? que les balises HTML et le texte qui était présent au sein de ces dernières. Avec cette mise à jour, Google a annoncé que son robot crawlerait désormais l’ensemble des sites avec le CSS et le Javascript d’activé, ce qui met fin aux outils comme Lynx, qui permettait de voir à quoi ressemblait votre site pour les moteurs de recherche avant cette mise à jour.
Google rappelle au passage quelques bonnes pratiques d’indexation et de crawl :
En plus de ne pas bloquer l’accès aux ressources CSS et Javascript à Google, Pierre Far vous rappelle quelques bonnes pratiques pour optimiser le crawl du robot de Google et donc l’indexabilité de votre site internet :
- Optez pour l’amélioration progressive en fonction de la taille des écrans si votre site internet n’est pas réalisé en responsive design.
- Optimisez le temps de chargement de votre site internet pour permettre au GoogleBot de craler le maximum de pages possible en un temps donné.
- Optimisez les performances de votre serveur pour éviter les temps d’attentes lorsque Google ira chercher vos feuilles de style CSS et vos ressources Jvascript.
Dites tout à Google pour ne pas être pénalisé !
Ceci pourrait être le résumé de cette nouvelle annonce, Google veut avoir accès à tout, de vos codes sources à vos statistiques de visites, de taux de rebond, … Chaque information que Google obtiendra en plus de vous et de votre site l’aidera à affiner son algorithme de recherche, vue sa position dominante sur de nombreux marchés, alors pourquoi s’en priver ?
Source : Google Webmaster Central
Fondateur de LEPTIDIGITAL et consultant SEO senior (à mes heures perdues), je suis un grand passionné de marketing digital et de SEO. Avant d’être indépendant à 100 %, j’ai travaillé en tant qu’SEO manager et responsable e-commerce pour différentes sociétés (Altice Media, Infopro Digital, Voyage Privé, Groupe ERAM). (Sur le plan perso, je suis un grand curieux hyperactif aussi passionné par l’IA, la photographie et les voyages !). PS : Si vous souhaitez me contactez, privilégiez LinkedIn ou Instagram. Pour me contacter : [email protected]
Il semble que Google dirige tout ce qui concerne le référencement de tous les sites web. Et de ce fait, pour éviter toute pénalisation de la part du géant Google, il est fortement conseillé, voir même qu’il est impératif de suivre ses instructions à la lettre. Google veut en fait tout contrôler que ce soit au niveau des techniques utilisées dans l’élaboration du site ou au niveau des techniques d’amélioration de sa visibilité sur le net.