+33 (0) 3 20 74 03 24

L’analyse de logs est aujourd’hui un outil indispensable à tout SEO pour optimiser un site internet, notamment les sites proposant à Google plusieurs milliers de pages à crawler.

Il s’agit une solution efficace et qui devrait être réalisée au minimum une fois par an afin de valider la bonne santé SEO d’un site internet. Elle permettra d’améliorer le crawl de votre site, la position de vos expressions stratégiques et ainsi augmenter votre trafic et vos conversions. Elle est également souvent la seule solution pour débloquer des situations SEO délicates et faciliter la prise de décisions.

En complément de notre article « Analyse des logs SEO, à quoi ça sert et qu’est-ce que ça apporte ? », nous allons nous concentrer sur l’art de la segmentation dans une analyse de logs. Cette étape est essentielle et aura un impact sur l’ensemble de votre étude.

Nous vous donnerons également un top 5 de nos segmentations préférées, à reprendre sur n’importe quel site internet. Bonne lecture !

La colonne vertébrale de votre analyse de logs

Ça y est, vous vous lancez dans l’analyse de logs : Bravo ! Les fichiers Logs ont bien été récupérés, sont exploitables et vous avez sélectionné votre logiciel d’analyse préféré.
La première étape, et la plus importante car c’est elle qui va définir finalement toute votre analyse, est la segmentation de vos logs par grande catégorie.

Elle vous permettra de comparer différentes typologies de pages selon des critères SEO et d’analyser des comportements anormaux du crawl.

Une analyse de logs bien segmentés vous permettra de répondre facilement à ce type de questions :

  • Est-ce que mes pages Produits sont plus souvent crawlées que mes pages Catégories ?
  • Quelle est mon pourcentage de perte de crawl ?
  • Quel est ma fenêtre de crawl ? (combien de temps faut-il à Google pour visiter l’ensemble des pages stratégiques de mon site au moins une fois)
  • Quelle catégorie de mon catalogue est la plus souvent visitée par Google ?
  • Est-ce que mes pages http sont toujours crawlées ?
  • Comment optimiser les performances de mon .htAccess sur d’anciennes redirections ?

La segmentation permet de catégoriser certaines pages de votre arborescence par rapport à d’autre et de les comparer. La manière d’optimiser des pages SEO n’est pas la même selon la nature, le rôle et le type d’expression visée par la page (longue traine / générique).

Ainsi, votre segmentation se doit de refléter votre stratégie SEO et de vous permettre d’obtenir des données fiables pour orienter vos futures optimisations.

Des outils comme OnCrawl permettent de facilement configurer ces segmentations grâce à des paramètres de tri sur les URLs, mais également des paramètres Onsite, comme un minimum de contenu, de liens internes ou encore la présence ou non de balisage sémantique.

Toutes ces informations pourront alors être utilisées pour comparer l’impact des optimisations SEO sur le crawl d’un site.

Top 5 de nos segmentations préférées

Voici notre top 5 des segmentations qui devraient se retrouver dans toute analyse de logs :

Pages stratégiques pour le SEO VS Non stratégiques

L’une des premières segmentations à mettre en place. Elle vous permettra de rapidement améliorer l’impact de votre budget crawl, voire de l’augmenter sur votre site : Détecter les pages non stratégiques pour votre SEO qui se font toujours crawler.

En réalisant cette segmentation, nous pouvons nous rendre compte du nombre de hits « gâchés » sur le site et qui pourraient bénéficier à d’autres pages plus stratégiques.

Exemples de pages détectées :

Le plus souvent, c’est des pages de ressources qui sont détectées avec cette technique ou des pages possédant du contenu dupliqué (Filtres, tracking…). Une analyse de mots clés et une très bonne connaissance du site sont nécessaires pour faire ce tri.

Solutions :

  • Valider le fait que la page crawlée n’est réellement pas une page non stratégique pour votre SEO.
  • Mise en place de balise canonicale sur les pages filtrées. Attention, il faut avoir conscience que Googlebot est très friand des balises canonicales et peu consacré une partie non négligeable de votre budget crawl dessus. Celles-ci ne doivent être utilisées que si vous n’avez pas le choix.
  • Mise en place une balise Meta Robots NoIndex, NoFollow
  • Retirer cette page du sitemap
  • Réduire le nombre de liens internes pointant vers cette page
  • Dès que cette page n’est plus indexée, la bloquer avec le robots.txt
  • Monitorer les hits sur ces pages nouvellement bloquées.

 

Version HTTP vs HTTPs

Cette deuxième segmentation est bien sûr liée à un passage du site en https. Il est parfois étonnant de voir à quel point Google peut continuer de crawler des anciennes versions http malgré une migration qui a lieu des années auparavant. Même si les redirections 301 sont en place, il est toujours plus sein d’avoir un site très majoritairement crawlé sur sa version finale.

C’est aussi, bien sûr, une méthode pour savoir si Google a bien pris en compte les redirections et la nouvelle version d’un site après migration.

Solutions :

Si votre budget crawl est important sur votre ancienne version http, nous vous conseillons de :

  • Vérifier les redirections 301 (en place ? accessible pour les Googlebot ?)
  • Vérifier votre sitemap
  • Vérifier votre maillage interne
  • Demander ou mettre à jour votre netlinking externe (au moins les sites les plus puissants)

 

Pages éditoriales VS Pages e-commerces

Cette segmentation a pour objectif de détecter si vos pages éditoriales ou vos pages e-commerces sont régulièrement hittés par les moteurs de recherches. Une page éditoriale a pour votre vocation de proposer un contenu plus important que la moyenne, avec un nombre d’expressions variées et nous savons que Google est très friand de cela. Une page e-commerce est, très souvent, la page que vous souhaitez voir indexée car c’est celle qui permet à l’internaute de convertir sans multiplier les clics. C’est la plupart du temps les pages qui génèrent le plus de business.

Cette analyse va donc vous permettre de vérifier l’impact de votre contenu sur le crawl, en termes de volume, et l’impact de votre maillage interne.

 

Solutions :

Si vos pages e-commerces, les plus stratégiques, sont beaucoup moins crawlés que vos pages éditoriales, nous vous conseillons de :

  • Vérifier le nombre de mots qui génère une augmentation du crawl Google
  • Créer du contenu sur vos pages Produits
  • Vérifier qu’il n’y ait pas de pages orphelines (invisible dans votre maillage interne)
  • Mailler intelligemment certaines pages produits depuis vos pages éditoriales
  • Sitemap dédié
  • Netlinking vers vos pages e-commerces

Ces recommandations s’appliquent bien sûr sur les pages éditoriales, si vous souhaitez vous positionner sur des expressions non transactionnelles. Dans ce cas, nous recommandons un maillage interne entre vos pages éditoriales et d’être particulièrement vigilants sur les contenus.

 

Top des ventes VS Nouveaux produits/catégories à fort potentiel

Pour réaliser cette segmentation, il sera indispensable de connaitre les produits phares du site, ceux qui convertissent le mieux.

L’objectif ici est de comparer ces produits moteurs pour votre site à des nouveaux produits ou des nouvelles catégories que vous souhaitez voir convertir. Nous regarderons donc :

  • Le niveau de crawl des tops vente VS les nouveaux produits
  • Le niveau de liens internes vers les produits Top Vente
  • Le contenu proposé par les tops ventes
  • La fréquence de crawl > A quelle fréquence Google va sur vos nouveaux produits VS le top Vente. En principe, cette fréquence doit être la plus courte possible pour que Google prenne rapidement en compte les optimisations que vous pourrez faire sur vos nouvelles pages.

Solutions :

  • S’inspirer de la nature des pages Top Ventes : Title, meta description, meta données, photos, CTA, contenu
  • Développer les liens internes vers vos nouveaux produits (mise en avant sur la homepage/univers/catégorie + cross selling ?)
  • Vérifier que les nouveaux produits sont dans le sitemap ? Si nécessaire, leur consacrer un sitemap dédié…

Segmentation par langue

Cette segmentation s’adresse bien sûr aux sites internationaux. Si vous souhaitez améliorer vos positions sur plusieurs langues et vérifier qu’une langue n’est pas en retrait pour Googlebot, c’est la segmentation qu’il vous faut !

Ici, nous allons donc séparer les différentes langues du site, mais aussi les différents types de pages proposées. Ainsi, nous pourrons comparer le taux de crawl des pages Catégories Italiennes VS les pages Catégories Françaises.

Solutions :

  • Valider la stratégie internationale : Quelles sont les langues les plus stratégiques ? Cela doit se ressentir dans le crawl de Google
  • Vérifier que le SEO international est bien implanté sur toutes les pages du site (balise lang, hreflang, contenu adapté…)
  • Vérifier les sitemap (1 sitemap par langue au minimum !)
  • Développer le netlinking en conséquence

Nous espérons vous avoir donné envie de réaliser une analyse de logs sur votre site, et d’avoir éclairci votre vision sur les segmentations possibles. Comme toujours avec les analyses de logs, attention à bien prendre en compte la vie d’un site internet avant de sélectionner vos périodes d’analyses !

N’hésitez pas à nous contacter si vous souhaitez un audit de logs complet pour le SEO de votre site !