Étiquettes : , ,

Vous avez sans doute entendu parler de la mise en place par Google d’un nouvel algorithme (aux EU) visant à disqualifier les sites Internet de faible qualité. En ligne de mire, les fermes de contenus… Mais comment Google fait-il pour repérer des contenus de mauvaise qualité?

Les grosses fermes de contenus génèrent quotidiennement plusieurs milliers d’’articles. Sur le marché anglo-américain,  Demand Media est leader du secteur, qui déclarait plus de 13 000 rédacteurs fin 2010. Il est extrêmement difficile, évidemment, de tenir la promesse d’’un contenu qualifié, actualisé, pertinent, voire même correct, dans un tel modèle de production éditoriale.

De fait, les contenus qui alimentent généralement ces plates-formes

  • manquent d’’objectivité
  • renvoient rarement vers des ressources fiables, sérieuses, expertes
  • sont simplistes à outrance
  • ne traitent pas le propos de manière exhaustive
  • n’’adaptent pas le niveau du contenu à des profils d’’utilisateurs étudiés, etc.

Comment Google sanctionne-t-il les cancres du contenu?

Ceci pose, bien évidemment, la question de la qualité du contenu web. Mais comment Google repère-t-il ces manquements? Je n’’ai pas la réponse à cette question. Et je suis étonnée, d’ailleurs, que sur aucun blog qui traite de cette actualité, il est fait mention de la manière dont marche cet algorithme : comment repère-t-il les mauvais contenus?

Google déclare certes que leur objectif est de « réduire le ranking (classement) des site de basse qualité – sites à basse valeur ajoutée pour les utilisateurs, sites qui copient le contenu d’autres sites ou site qui ne sont juste pas très utiles». Mais concrètement, comment cela se passe-t-il?

A mon humble avis, Google doit vraisemblablement pénaliser

  • la suroptimisation et la surdensité des mots-clés,
  • la faible qualité et le manque de profondeur du maillage interne et externe,
  • le manque de granularité dans l’information,
  • la pauvreté des formats éditoriaux : rares sont les articles, sur ces plates-formes, qui recourent aux citations, exemples, encadrés, tableaux, et autres aides à la lecture… marqués par des balises et intégrées dans les CSS.

Du reste, ces pénalisations ont déjà cours depuis un précédent changement d’’algorithme, qui fit aussi couler pas mal d’’encre: le fameux Google May Day. J’ai également évoqué l’impact du MayDay sur l’éditorial à l’’époque, sur le blog Webmarketing & Com.

La qualité éditoriale, non tangible?

Dans un précédent article consacré à l’audit qualitatif des contenus, je proposais une grille d’’évaluation qualitative, que nous utilisons souvent lorsque nous réalisons un audit éditorial. Les critères utilisés sont:

  • La pertinence et l’’utilité
  • La trouvabilité et l’’ergonomie
  • La clarté et la précision
  • La cohérence et la justesse
  • L’’influence et la démonstration

Aucune norme, aucun standard n’impose ces critères précis pour évaluer la qualité éditoriale d’une page ou d’un site Internet. Ce sont davantage les années de pratique, les conventions et les échanges avec d’autres experts en communication et stratégie de contenu, entre autres, qui permettent de dresser une telle grille. Un responsable en marketing, un spécialiste du référencement, un responsable RP avanceront peut-être d’autres arguments.

Ce qui est sûr, c’est que ces « usines à contenu » comme elles sont dénommées par ailleurs ne reposent jamais sur un modèle éditorial qui a pour mission, comme le devrait pourtant tout média d’information, d’éduquer ses lecteurs, de les former et de les informer à travers des contenus objectifs, corrects et exhaustifs.

Mais alors comment Google – ou n’importe quel autre robot – peut évaluer la pertinence et l’utilité d’un contenu? Comment un moteur de recherche peut-il qualifier un contenu sur la base de critères ergonomiques, ou encore en fonction d’indicateurs de crédibilité, de démonstration. De conversion.

Bref, au-delà des signes de qualité associés à des balises, à la nature ou la densité des mots-clés, comment Google peut-il évaluer la qualité éditoriale des contenus en ligne, si peu tangible au sein même du cénacle de ceux qui contribuent, d’une manière ou d’une autre, à la chaîne éditoriale.

Quel est votre point de vue? Pour connaître celui d’Isabelle, d’Eve, de Jean-Marc, je vous invite à lire l’article d’Olivier Duffez, Le point de vue des rédacteurs Web sur les fermes à contenu.

 

 


Commentaires

  1. Avatar Angie dit :

    Je me posais aussi des questions sur les critères algorithmiques que l’on pouvait appliquer pour déterminer un bon contenu… C’est tout de même relativement subjectif et pour moi le tri est “humain”. Un contenu utile est un bon contenu, mais un contenu qui nous divertit à un moment T de la journée également. Dans ce cas, peut-on déterminer des critères de qualité génériques qui fonctionneraient pour tout type de contenu quelque soit la proposition de son auteur ? Merci pour ce bon article et ces pistes de réflexion !

  2. Avatar valerie dit :

    Peux t-on imaginer que Google fusionne les données de Google analytics (85% de parts de marché) pour qualifier la pertinence et la qualité d’un contenu. Ainsi, une page avec un taux de rebond de 90% sur une requete X, ou un temps moyen passé sur une page de l’ordre de 2 secondes, serait reléguée aux oubliettes ?

    1. Excellente question. Malheureusement, je ne suis pas qualifiée pour y répondre. Si un référenceur passe par ici…

  3. Avatar Presse dit :

    Concernant le commentaire de Valerie c’est tout a fait possible…. un site avec GA et GWT installé et complétement visible aux yeux de Google. Le Tx de rebond et le temps de consultations vont devenir des indicateurs SEO…

    Julien

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Devenez chroniqueur

Vous souhaitez devenir chroniqueur ou nous soumettre un article? Rien de plus simple.

Ça m'intéresse

#EPW sur Twitter

#EPW sur Facebook

À propos

Votre blog Écrire pour le web en chiffres
  • Plus de 25.000 sessions par mois
  • Plus de 35.000 pages vue chaque mois
  • 1500 abonnés à la newsletter
  • Créé en 2006
  • 1e position dans Google sur des expressions métier
En savoir plus