Veille et Actualités SEO

SEO : Google déconseille fortement le bloquage du CSS, Javascript dans le robots.txt

Google CSS Javascript Robots Txt

Google a mis à jour, ce Lundi 27 Octobre, ses guidelines concernant tous les aspects techniques liés à la création de site web et l’indexation. Il est désormais fortement recommandé d’autorisé l’accès aux fichiers CSS et Javascript dans le Robots.txt, sous peine de se voir moins bien classé en SEO !

Google vous conseille de ne pas bloquer les fichiers CSS, Javascript dans le Robots.txt !

html5 CSS Javascript

Alors que des rumeurs circulaient sur ce sujet depuis quelques mois, Google affiche désormais clairement dans ses consignes aux Webmasters que bloquer le CSS, le Javascript du crawl des robots Google pourra avoir des impacts négatifs sur vos sites internet. Si vous bloquer actuellement ses fichiers dans votre fichier robots.txt, il vous est fortement conseillé de le modifier pour autoriser le crawl de ces derniers par GoogleBot, le robot explorateur de Google.

Google insiste bien sur le fait que bloquer ces fichiers pourra directement porter atteinte à l’indexation de votre site sur Google mais aussi à la manière dont ce dernier sera affiché à l’internaute (sur Google Chrome notamment). Pierre Far, qui a rédigé l’annonce sur le blog de Google, précise bien que le fait de bloquer le CSS et le Javascript à Google pourra résulter dans des positionnements SEO moins bons ! Si Google utilisait déjà ses facteurs dans le positionnement de sites auparavant, c’est désormais officiel ! Le bloquage, dans le robots.txt, de ce type de fichiers, aura donc un impact négatif sur vos positionnements dans les résultats de recherche naturels de Google !

Google Bot analyse désormais le CSS et le Javascript, en plus du HTML !

Google Bot

Alors que précédemment le bot de Google ne pouvait voir d’un site internet? que les balises HTML et le texte qui était présent au sein de ces dernières. Avec cette mise à jour, Google a annoncé que son robot crawlerait désormais l’ensemble des sites avec le CSS et le Javascript d’activé, ce qui met fin aux outils comme Lynx, qui permettait de voir à quoi ressemblait votre site pour les moteurs de recherche avant cette mise à jour.

Google rappelle au passage quelques bonnes pratiques d’indexation et de crawl :

En plus de ne pas bloquer l’accès aux ressources CSS et Javascript à Google, Pierre Far vous rappelle quelques bonnes pratiques pour optimiser le crawl du robot de Google et donc l’indexabilité de votre site internet :

  • Optez pour l’amélioration progressive en fonction de la taille des écrans si votre site internet n’est pas réalisé en responsive design.
  • Optimisez le temps de chargement de votre site internet pour permettre au GoogleBot de craler le maximum de pages possible en un temps donné.
  • Optimisez les performances de votre serveur pour éviter les temps d’attentes lorsque Google ira chercher vos feuilles de style CSS et vos ressources Jvascript.

Dites tout à Google pour ne pas être pénalisé !

Ceci pourrait être le résumé de cette nouvelle annonce, Google veut avoir accès à tout, de vos codes sources à vos statistiques de visites, de taux de rebond, … Chaque information que Google obtiendra en plus de vous et de votre site l’aidera à affiner son algorithme de recherche, vue sa position dominante sur de nombreux marchés, alors pourquoi s’en priver ?

Source : Google Webmaster Central

SEO : Google déconseille fortement le bloquage du CSS, Javascript dans le robots.txt
Votre avis sur cette info ?

Vous souhaitez recevoir nos meilleurs articles ?

En vous abonnant à la newsletter LEPTIDIGITAL, vous confirmez avoir pris connaissance de notre politique de confidentialité et de traitement des données (votre email ne sera jamais partagé et restera anonyme 😉 ).

1 Commentaire

1 Commentaire

  1. CD Mada

    7 novembre 2014 à 17 h 36 min

    Il semble que Google dirige tout ce qui concerne le référencement de tous les sites web. Et de ce fait, pour éviter toute pénalisation de la part du géant Google, il est fortement conseillé, voir même qu’il est impératif de suivre ses instructions à la lettre. Google veut en fait tout contrôler que ce soit au niveau des techniques utilisées dans l’élaboration du site ou au niveau des techniques d’amélioration de sa visibilité sur le net.

Répondre

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

haut