Dans cet article, découvrez le nouveau Crawler de Google et les dernières améliorations de SafeSearch.
Dans cet article, découvrez le nouveau Crawler de Google et les dernières améliorations de SafeSearch.
Un crawler, également connu sous le nom de spider, robot d’exploration ou encore bot d’indexation, est un programme informatique utilisé par les moteurs de recherche pour parcourir automatiquement le contenu du web.
Plus précisément, il s’agit d’un outil qui navigue à travers les pages web en suivant les liens hypertextes pour collecter des informations et les indexer dans la base de données du moteur de recherche.
Le crawler joue un rôle crucial dans le processus d’indexation des moteurs de recherche. Il explore de manière méthodique et systématique les sites web en suivant les liens internes et externes, et en analysant le contenu des pages visitées.
Comment ça marche ?
Google a récemment annoncé le lancement de son dernier outil d’exploration, le Google-InspectionTool.
Cette nouvelle version du Googlebot a été développée pour être utilisée par les outils de test de Search, notamment le test des résultats enrichis et l’inspection des URL dans la Search Console.
Selon les informations fournies par Google dans sa documentation dédiée aux crawlers, le Google-InspectionTool est conçu pour imiter le comportement du Googlebot (à l’exception du user-agent et du jeton user-agent).
Les utilisateurs pourront donc l’identifier sans difficulté s’ils le repèrent dans leurs fichiers logs.
SafeSearch est un outil de filtrage de contenu fourni par Google. Il vise à fournir une expérience de recherche plus sûre en filtrant les résultats qui peuvent contenir du contenu adulte, explicite ou inapproprié.
SafeSearch est conçu pour aider les utilisateurs, en particulier les enfants et les familles, à éviter l’accès à des informations ou à des images inappropriées lorsqu’ils effectuent des recherches sur le Web.
Google a apporté des mises à jour à sa documentation concernant SafeSearch. Mais qu’est-ce que cela signifie concrètement ?
Une nouvelle mention a été ajoutée pour expliquer pourquoi il est recommandé d’autoriser Googlebot à explorer un site soumis à une limite d’âge.
Selon Google, pour le contenu qui n’est accessible qu’à une partie de la population à partir d’une certaine limite d’âge, il est conseillé d’autoriser Googlebot à accéder au contenu sans vraiment nécessiter cette limite d’âge.
Comment faire ? Les propriétaires de sites peuvent réaliser cela en validant les demandes de Googlebot et en fournissant le contenu sans barrière d’âge.
Avant de se quitter…
Si cet article sur le nouveau crawler et la MAJ de Safesearch par Google vous a plu, n’hésitez pas à le partager sur les réseaux sociaux et à vous abonner à notre newsletter digitale pour recevoir nos prochains articles.
Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).
Nous sommes aussi actifs sur Linkedin, Twitter, Facebook et YouTube.
Pour toute question associée à cet article, n’hésitez pas à utiliser la section « commentaires » pour nous faire part de votre remarque, nous vous répondrons (avec plaisir) dans les meilleurs délais.
Titulaire dans master en marketing international et management, je m’intéresse au marketing et au digital au sens large. Pour me contacter : [email protected]