Référencement : mise à jour des pages pour les moteurs de recherche

Référencement : mise à jour des pages pour les moteurs de recherche

Pour augmenter le trafic en provenance des moteurs de recherche, les chantiers d’optimisation sont nombreux. Cet article synthétise l’atelier référencement que nous avons animé lors du Bargento 2012, et vous fournit une méthodologie opérationnelle sur les fondamentaux du fonctionnement d’un moteur comme Google… ou comment indexer les pages dites “inactives” d’un site.

Hiérarchisation de l'indexation et de la performance des pages

Hiérarchisation de l’indexation et de la performance des pages

  • Connaître la volumétrie des pages visitées par le moteur de recherche ;
  • Connaître la fréquence de passage sur GoogleBot ;
  • Définir des scénaris d’optimisation pour rendre le crawl et l’indexation des pages plus efficaces.

1. Rappel sur le fonctionnement de Google

Google doit découvrir les pages du site pour enrichir ou mettre à jour son index. Googlebot dont le rôle est de “crawler” (Aspirer) les pages du site parcourt le site en suivant les liens. Les pages sont crawlées en fonction de leur popularité (nombre de liens, nombre de visites et interactions sociales).

Votre premier souci de référencement est de faire en sorte que vos pages soient accessibles au crawler et maîtriser le passage de ce dernier.

2. Suivre l’activité de GoogleBot

Vous pouvez suivre l’activité de Googlebot avec l’outil de gestion Google WebmasterTools. Ceci vous permettra de surveiller à l’oeil si Google prend en compte la totalité de votre contenu en volumétrie.

Temps de réponse en référencement

Un bon temps de réponse augmente significativement le nombre de pages crawlées

2.1 Utilisation des commandes du terminal pour aller plus loin

Pour les plus techniciens, le traitement des logs permet une analyse plus fine en découpant les visites “moteur” par catégorie. Les commandes GREP, SED et AWK demandent un peu de concentration. Néanmoins, une fois les données traitées un état de lieux de la Crawlabilité en ressort.

2.2 Exemple “très complexe” d’extraction des visites de Googlebot

Exemple : #Grep “Googlebot” > Googlebot.txt

2.3 Note sur le traitement des données avec MacOs

Pour information, la commande SED est particulièrement lente dans le terminal MacOs, préférer l’usage de Linux même en machine virtuelle peut vous faire gagner plusieurs heures sur un traitement de plusieurs gigas de données.

3. Optimiser les landing Pages

En comparant les pages crawlées et la provenance des visites, il est possible d’optimiser davantage le nombre de visites générées depuis les moteurs :

  1. Filtrer les pages visitées par GoogleBot ;
  2. Evaluer le nombre de crawls de Googlebot par URL sur un agrégat (Période donnée) ;
  3. Déterminer le PageRank de la page et/ou la profondeur en clics depuis la home ;
  4. Comparer le crawl avec le nombre de requêtes issues du mot-clé principal de la page ;
  5. Mettre en place des liens depuis les pages fortements crawlées vers les pages inactives ou de faible activité
  6. Les pages actives sont transformées en pages efficaces
  7. Gérer le ROI
Crawl Googlebot

Crawl Googlebot

4. Aller plus loin dans l’optimisation

Il est toujours possible de mettre la barre plus haut, tout dépend de la problématique technique et de la complexité du site.

Dans une stratégie complète il faut prendre en compte la manière dont sont gérées les requêtes ainsi que l’étendue de votre longue traîne.

Référencement et longue traîne

  • Expression générique
  • Expression générique + localisation
  • Expression générique + segmentation
  • Expression générique + filtre
  • Expression générique + déclinaison
  • Expression générique + localisation + segmentation + filtre …

Il faut tenir compte de la nature de l’activité qui conditionne le type de recherche de l’internaute. Il est donc aisé de mettre en place une politique large de landing pages en prenant garde à ne pas rendre la stratégie contre-productive en créant des pages inutiles mélangeant des catégories avec des déclinaisons inadaptées à la recherche des internautes.

Exemple de requêtes creuses :
Mettre en place des pages automatiques pour des requêtes ‘nulles’ : boutique chaussure + 36000 communes Tongues + Talon de 6cm (déjà vu)

En conclusion la mise à jour est interdépendante de votre catalogue et des choix de votre segmentation (catégorisation). Le vrai référencement e-Commerce commence à la personnalisation de cette méthodologie en prenant en compte la fenêtre de rétention, soit le renouvellement du crawl et l’état de l’indexation Google.

Un ping pour “Référencement : mise à jour des pages pour les moteurs de recherche

Un commentaire pour “Référencement : mise à jour des pages pour les moteurs de recherche

  1. Article vraiment bénéfique pour le Seo et notre cher Google. Bravo pour votre blog qui est immense plaisir à découvrir. Excellente continuation…Cordialement.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *