Comment éliminer la masse noire SEO de votre site web ?

Catégorie : Technique

La masse noire SEO regroupe certaines pages d’un site web, dont la caractéristique commune est un faible intérêt.

Elles peuvent perturber l’indexation et le référencement Google des pages que vous avez optimisées, car elles mobilisent les ressources des moteurs de recherche inutilement. Elles font ainsi globalement baisser les performances de votre site et ont un impact négatif sur son référencement SEO. Voici tout ce que vous devez savoir sur la masse noire et nos conseils pour vous en débarrasser.

Qu’est-ce que la masse noire SEO ?

Des URLs à faible intérêt qui perturbent l’exploration de vos pages optimisées par Google

La masse noire SEO regroupe des URLs à faible intérêt qui mobilisent inutilement une partie des ressources que Google destine au crawl, c’est-à-dire à son exploration en vue du référencement naturel de votre site web. Souvent, il s’agit de pages dont vous ignorez l’existence, car elles sont générées automatiquement par votre CMS, c’est-à-dire par votre site lui-même.

Comment se passe l’exploration par les robots de Google

Les bots de Google n’explorent jamais toutes les pages d’un site en un seul passage. Ils vont et viennent au gré des liens entrants et sortants. Ils indexent ainsi les pages de votre site en plusieurs fois, avant de les noter pour les référencer.

Lorsqu’un site contient plusieurs milliers de pages, Google définit un nombre maximal de pages qu’il compte explorer : c’est le budget de crawl. Pour cela, il prend en compte plusieurs critères, comme la qualité du contenu, la notoriété de votre site, les performances du serveur, le nombre de clics pour atteindre les pages les plus profondes de l’arborescence, la fréquence de mise à jour du contenu….

Un bon site aux yeux de Google est crawlé plus souvent, sur un plus grand nombre de pages.

  • La masse noire SEO est clairement un frein à l’exploration de vos meilleures pages.

La masse noire SEO : l’ennemie d’un crawl efficace et d’un bon référencement

Pour qu’un site soit bien référencé, il faut que vos meilleures pages, c’est-à-dire celles que vous avez optimisées, puissent être indexées par Google.

Si les ressources du moteur sont gaspillées inutilement pour crawler des pages sans intérêt, c’est-à-dire de la masse noire SEO, vous réduisez les chances de référencer vos meilleurs contenus et donc la visibilité de votre site sur Google.

Pire, plus Google scanne des pages sans intérêt, moins il viendra sur votre site. Votre référencement en pâtira immanquablement.

D’où l’importance de détecter la masse noire SEO sur votre site pour la supprimer, ou au minimum pour en interdire l’accès aux robots d’exploration de Google. Ainsi, ils pourront se concentrer sur les pages qui le méritent vraiment.

  • Seul le contenu de qualité intéresse en effet Google et vous permettra de hisser votre site sur le podium des pages de résultats de recherches.

Testez votre site

 

Une analyse technique & SEO complète suivie d’un échange téléphonique pour aller plus loin, si vous le souhaitez

Quelques exemples de pages qui constituent la masse noire SEO

Globalement, on peut résumer de façon simple en définissant la masse noire comme un ensemble de pages sans intérêt pour le référencement. De plus, outre leur manque d’intérêt pour Google, ces pages ont tendance à dégrader les performances globales du site et son référencement.

Les pages inutiles générées par les CMS

Certaines pages sont créées à votre insu par votre CMS, le système de gestion de contenus qui régit l’organisation de votre site. Un exemple typique est la page d’auteur générée automatiquement par WordPress. Il y en a autant que de rédacteurs qui interviennent pour rédiger du contenu sur votre site. Cette page est rarement accessible dans l’arborescence de votre site. Elle constitue de la masse noire SEO. Si Google bot explore cette URL, il perd son temps.

Des pages inutiles sont aussi couramment générées par Prestashop. Il s’agit par exemple de pages de catégories. Elles sont créées automatiquement par le CMS et vous ne les connaissez généralement pas. Elles n’ont pas d’intérêt particulier pour vos clients et ne sont de toute façon pas accessibles.

Cependant, elles sont indexables et utilisent ainsi à mauvais escient les ressources du Google bot. Là encore, leur exploration se fait au détriment d’autres pages plus intéressantes, qui mériteraient d’être explorées et référencées.

Les pages dupliquées, volontairement ou non

Une autre source de masse noire SEO est le contenu dupliqué au sein de votre propre site. Il y a en souvent par nécessité sur certains sites, notamment les sites e-commerce. Par exemple, des fiches produits très similaires, où seule une caractéristique change, sont du contenu dupliqué. Leur présence n’est pas un problème pour le site.

En revanche, Google ne devrait normalement pas les indexer. Le propriétaire du site devrait interdire leur crawl grâce à une mention dans le fichier ‘robots.txt’ pour dire à Google bot de ne pas aller les explorer. Toutefois, ce n’est pas toujours fait et ces pages s’ajoutent alors à la masse noire. Elles peuvent être très nombreuses.

Les pages oubliées, orphelines ou trop profondes

Les pages orphelines sont perdues dans les abîmes de votre site web. Elles sont inaccessibles aux internautes car aucun lien ne mène vers elles. Ce sont généralement de pages oubliées au fil des modifications de votre site, notamment lorsqu’il y a eu une refonte.

C’est pour cela qu’il est important de conserver et améliorer son référencement naturel après une refonte.

Si Google les trouve, il perd encore une fois son temps à crawler une page inutile. C’est donc aussi de la masse noire SEO.

Les pages trop profondes dans l’arborescence de votre site web constituent aussi de la masse noire SEO. Situées à plus de 3 clics de la page d’accueil, elles ont peu de chances qu’un internaute s’y aventure.

Là aussi, il vaudrait donc mieux que les bots de Google se consacrent au crawl d’autres pages plus intéressantes plutôt que de perdre leur temps sur ces pages.

Idéalement, tout propriétaire de site web devrait veiller à ce que l’ensemble des pages de son site soient accessibles en 3 clics maximum depuis la page d’accueil.

Les pages peu performantes

Des pages peu visitées témoignent d’un manque d’intérêt de la part des internautes. De même, certaines pages affichent un taux de rebond élevé : les internautes les quittent rapidement au profit d’autres pages, visiblement car le contenu ne répond pas à leurs questions.

D’autres pages provoquent même la sortie de l’internaute de votre site. Évidemment, toutes ces pages vont à l’encontre des objectifs de satisfaction de l’internaute de Google. Aussi, elles pénalisent l’ensemble de votre site car Google s’en rend compte.

Ces pages peu intéressantes forment aussi une partie de la masse noire de votre site web. Aussi, il faut les identifier et chercher à les enrichir et procéder à l’optimisation SEO pour les rendre plus intéressantes, aux yeux des visiteurs de votre site comme de Google. Vous pouvez également les fusionner avec d’autres contenus similaires présents sur votre site.

Enfin, une action plus radicale consiste à les désindexer en insérant une balise « no-index » dans l’en-tête de leur code HTML. Ainsi, elles n’apparaîtront plus dans les résultats de Google et les robots ne perdront plus leur temps à les indexer.

Trois outils complémentaires à utiliser pour détecter la masse noire SEO

Comment détecter toute cette masse noire SEO, qui peut représenter une somme d’URLs conséquente sur un site de plusieurs centaines ou milliers de pages ? D’autant que souvent, l’existence même de ces pages vous est parfaitement inconnue. Google Search Console, Google Analytics et Semrush sont trois outils complémentaires pour vous aider à dénicher ces URLs qui empoisonnent les performances SEO de votre site.

Google Analytics

L’outil gratuit de mesure d’audience de Google vous permet de déceler si certaines pages ont moins d’intérêt que d’autres aux yeux des internautes. En effet, il permet de connaître le temps moyen passé sur une page donnée par les internautes : plus il est faible, moins cette page est à priori intéressante. Il permet aussi d’identifier les URLs qui provoquent le départ de l’internaute du site : les pages de sortie, ainsi que celles qui ont un fort taux de rebond.

Google Search Console

Outil gratuit fourni par Google, la Search Console permet de suivre le référencement naturel d’un site internet. Dans la rubrique « couverture », vous pourrez identifier les nombres d’URLs valides, indexées par Google, celles exclues et celles qui comportent des erreurs. La présence de pages avec erreurs, révèle l’existence d’une masse noire SEO : pages avec erreur 404 qui amènent l’internaute et les robots dans une impasse, contenu dupliqué, etc. La Search Console ne permet toutefois pas d’entrer dans le détail page par page. Vous pourrez le faire avec Semrush.

Semrush

Outil payant mais très performant, Semrush vous offre des possibilités d’analyse très poussées pour détecter la masse noire d’un site web. En effet, il propose des fonctionnalités d’audit de site qui permettent de pointer les URLs à l’origine du gaspillage des ressources d’exploration de Google. Vous pourrez ainsi retrouver les pages dupliquées, celles comportant des erreurs 404, etc.

La présence d’une masse noire SEO importante sur votre site peut donc anéantir vos efforts de référencement de votre site sur Google. Pour vous en débarrasser, nous vous recommandons de faire appel à une agence spécialisée en SEO.

TOKIZ DIGITAL vous propose un audit de votre site en vue de mettre en place toutes les actions nécessaires pour un meilleur référencement de vos pages. Alors n’attendez plus, et contactez-nous vite pour améliorer votre site web !

 

Testez votre site

 

Une analyse technique & SEO complète suivie d’un échange téléphonique pour aller plus loin, si vous le souhaitez