Pour avoir beaucoup de trafic sur son Prestashop, il faut savoir se séparer du déchet… Savez-vous si vos pages produits sont fréquentées et si le contenu de votre site est régulièrement consulté ? Vérifions cela ensemble…
Quel est votre % de pages actives ?
Vous êtes peut-être satisfait de votre trafic, mais est-ce que vous savez si toutes vos pages vous rapportent réellement du trafic ? Si vous regardez vos statistiques il se peut que vous soyez surpris et peut-être que vous remarquerez que vous avez beaucoup de pages dormantes c’est-à-dire des pages avec un trafic annuel à 0 ou qui drainent seulement 2 ou 3 visites…
Google n’aime pas les pages inactives
En fait Google va tenir compte de ce critère et cela semble assez logique… Imaginez vous un site avec 100 pages sur lequel il y’a un trafic régulier sur toutes les pages… et prenez un autre site identique dans lequel il y a un trafic actif sur seulement 60 pages… A la place de Google vous mettriez plutôt en avant le 1er cas non ? Il faut donc cleaner toute la partie des pages en mode zombie.
Comment savoir où se trouvent les lacunes ?
En mode manuel c’est assez simple, il suffit d’aller dans Google Analytics sous « Comportement -> Contenu du site -> Toutes les pages » et de prendre la tranche de date de l’année précédent et de trier par ordre croissant des visites. Très vite vous allez voir quelles sont les pages qui drainent un faible intérêt… reste à comprendre « pourquoi elles ne sont pas vues ». Essayez d’être objectif et prenez du recul pour être auto-critique.
Quelle est la solution pour améliorer le référencement ?
En fait il n’y a pas de miracles, pour les fiches produits ou pages concernées vous avez toujours 2 possibilités. Soit vous désindexez la page ou sinon il faudra améliorer le contenu pour rendre la page pertinente. C’est aussi là le coeur du problème, les e-commerçants qui ont fait des centaines de fiches produits à la « va-vite » ont certainement beaucoup de pages présentation produits avec un faible trafic.
Accepter de désindexer son contenu
Il faut parfois accepter de remettre en cause son travail, en réduisant le nombre de pages que l’on montre à Google on améliore le flux de qualité ce qui permet d’être plus visible. On le dit souvent, la qualité prime sur la quantité et c’est toujours d’actualité. Vous pouvez aussi désindexer temporairement une partie de votre catalogue, puis le réindexer une fois les pages concernées optimisées.
Résumé de la vidéo : contrer Google Panda sous Prestashop grâce à un contenu 100% actif
- Lecture du billet Webrankinfo sur les pages actives vues par Google
- Un site peut s’enfoncer doucement dans les résultats de Google même si pourtant il respecte les bonnes conventions… Il faut éradiquer le contenu zombie.
- Dans Google Analytics on trie les vues par page et on fait de l’exclusion d’urls pour voir uniquement le contenu intéressant. De cette manière on peut extraire les pages avec un faible trafic / visibilité.
- Il est possible d’exporter ces informations dans Excel pour vérifier qu’il n’y a pas de doublons avant de désindexer la page de Google.
- Cela sensibilise au fait que le contenu périssable est un vrai problème et qu’il faudrait faire du nettoyage chaque année. Le contenu doit rester pertinent de manière durable pour Google.
- Pour un audit automatisé la solution RM Tech peut vous faire gagner du temps, plutôt que de faire une analyse manuelle (le coût reste accessible).
Bonjour Germain
Merci encore pour ce tuto.
J’avais vu également cet article et je me suis dirigé plus sur la rapidité du site et je n’arrive pas à tout comprendre pour l’instant.
Mais voila plus ce qui m’interpelle aujourd’hui par rapport à toutes ces stats google ou autre.
J’ai installé un module pour gérer le RGPD ou les cases à cocher sont à remplir par le client. Et la plus beaucoup de retour sur toutes les stats (cases non cochées par les clients), j’ai un effondrement des pages visitées et autre.
Par la suite comment google va analyser ses données alors que les ventes sont réelles mais que les stats sont inexistantes?
Bonne journée.
Bonjour,
Pour ce point, peut-être qu’il vaut mieux solliciter le développeur module RGPD pour qu’il confirme si celui-ci peut avoir un impact sur les statistiques. Ou sinon voir pour utiliser cette méthode plus artisanale pour le RGPD, mais qui n’impacte pas les statistiques : https://www.webbax.ch/2018/05/24/prestashop-1-7-respecter-le-rgpd-ep-53/
A bientôt !
Bonjour Germain,
Un grand merci pour cette vidéo qui aborde avec des pointes d’humour un point très sérieux/important du SEO de nos jours. Et bien sur, un grand merci pour la mise en avant de notre solution RM Tech :=) En tant que cofondateur de l’outil avec Olivier Duffez, ta vidéo nous fait vraiment très plaisir. Pour te remercier, et comme tu as déjà presque utilisé tous tes crédits RM Tech, je viens de t’en offrir.
Fabien
Bonjour,
Oui je pense que l’outil RM Tech fait gagner un temps précieux plutôt que de le faire en travail manuel (le rapport qualité prix est très bien). Ce retour d’expérience concernant les pages avec peu de trafic était vraiment intéressant pour obtenir un boost de visibilité…
Merci pour le retour et ce beau cadeau.
A bientôt !
Salut Germain, et merci pour ton excellente explication ! De mon côté mon projet e-commerce avance petit à petit,
J’ai cependant un autre soucis qui commence petit à petit à désindexer mon site :
En effet, Google index les pages de mes catégories, par exemple :
https://www.site.com/en/3_apple?page=2 ; https://www.site.com/en/3_apple?page=3 ,…
En d’autres termes, Google indexe les pages de mes catégories, avec à chaque fois un SEO identique = Duplicate content….
Aurais-tu une idée pour palier à ce problème?
Dans la Search Console => Exploration => Sitemaps => Pages Web,
Pour mon site web par exemple, 220 URL sont « envoyées », tandis qu’il ne reste plus que 138 URL actuellement dans l’index… et ce nombre diminue chaque jour, très décevant en sachant que mon site web sera bientôt lancé…
Un grand merci pour ton aide,
Marine
Hello,
Si le shop se fait désindexer progressivement par Google, il faudrait commencer par vérifier si les pages contiennent la mention « noindex » dans le code source. Pour la pagination à voir aussi de ce côté : https://support.google.com/webmasters/answer/6080550?hl=fr
A bientôt !