fbpx
Logo Ya-graphic : Création de boutique en ligne et référencement Google
Nous sommes à votre service pour vous proposer le meilleur service de référencement Google et de création de site e-commerce. Depuis 2008 nous apportons satisfaction à nos clients, qu'ils soient de France ou d'ailleurs.
3 av Adrien Mazet, Rés La Carraire, bât c - n°36, Miramas, FR
(+33) 06.52.64.70.04
contact@ya-graphic.com
Suivez YA-GRAPHIC

Google et sa nouvelle technique de détection de spam

Google et sa nouvelle technique de détection de spam

Google contre le spam. Robot explorateur.

Matt Cutts, responsable de l’équipe anti-spam de Google, a récemment annoncé que le moteur de recherche de Google s’était doté d’une nouvelle technique de détection de spam. En 2010 il y avait eu deux changements algorithmiques majeurs qui s’étaient focalisés sur la médiocrité des sites. L’objectif ciblé et perpétuel est bien évidemment de réduire la quantité de spam qui sévit en ligne. Google redouble d’effort, ce nouvel algorithme – c’est comme ça qu’il faut l’appeler – est déjà opérationnel n’est pas à l’ordre du jour.

[Mise à jour: D’après Barry Schwartz, de Search Engine Land, Matt Cutts aurait déclaré aujourd’hui que le nouvel algorithme est lié au blocage de sites de faible qualité (scraped content) et non aux fermes de contenu (content farms).]

Quelles seront donc, en 2011, les conséquences pour le webmaster/propriétaire du site ? Et pour l’utilisateur ?

Pour le webmaster.

Je dirais plutôt : quels seront les dégâts occasionnés ? Le nouvel algorithme devrait impacter le trafic des sites qui génèrent et publient quotidiennement du contenu pauvre et en abondance (des fermes de contenucontent farms). Qu’ils aient ou pas d’annonces propulsées par Google AdWords n’y changera rien, je dois ajouter au passage que l’achat d’annonces n’a aucun impact – direct (techniquement parlant) – sur le référencement naturel. Alors quels seront les sites visés ? Selon la nouvelle de Nicolas Guillaume, journaliste chez ITespresso.fr, il pourrait s’agir de sites créés sur le modèle de contenus produits à la demande ; en Europe les concernées seraient Wikio Group, Populis et Commentçamarche. Je doute sur la liste d’exemples cités, il faudra attendre quelques mois de plus pour voir les réelles conséquences de ce nouveau changement.

Pour l’utilisateur.

Les pages de sites qui reprennent (scraped content) et/ou copient (duplicate content) le contenu original d’autres sites devraient avoir plus de mal à gagner des places dans le classement des résultats de recherche. Cela devrait être une bonne nouvelle pour l’utilisateur dans la mesure où les résultats de recherche devraient être plus frais, plus pertinents, plus exhaustifs.

Trêve de vision binaire, je terminerai cet article sur le cas de Communique-de-presse.info, mon modeste site. Comme beaucoup d’autres je suis en effet tour à tour webmaster et utilisateur. Communique-de-presse.info exige que chaque communiqué publié ne provienne pas d’un ou de plusieurs autres sites. Le contenu original est un des piliers de sa réussite, du moins il devrait l’être. Il faut donc cesser avec le Duplicate Content, je ne me fatiguerai pas de le dire.

En tant que googler et selon les requêtes que je tape il m’arrive de voir – encore en 2011 – des montagnes de sites au contenu de piètre qualité qui dominent les premiers résultats. Bravo pour le SEO, mais entre le SEO et la qualité il y a tout un monde, sans la qualité c’est la chute assurée…

Yassine A.

Expert visibilité Google (SEO, webmarketing) depuis plus de 10 ans. Certifié Google. Créateur de boutiques en ligne et responsable e-commerce. Basé en France métropolitaine.

Commentaires : 5

  • Morgan Prive
    29 janvier 2011 22 h 41 min

    L’algorithme a changé et certains référenceurs/spammeurs commencent à se plaindre de chute dans les SERPs. Ce n’est pas encore parfait, mais ca viendra bien un jour 🙂

    Amitiés.

  • Sacha
    30 janvier 2011 3 h 54 min

    Eh bah j’ai envie de dire tant mieux.
    Essayant depuis le rebut de pas tricher, de faire du contenu original je vais pas m’en plaindre

  • Aurélien
    30 janvier 2011 13 h 10 min

    Effet d’annonce ou nouveaux algorithmes ?
    A mon avis pour l’instant, il ne s’agit que d’une déclaration d’intention, l’avenir nous le dira.

    Le résultat pourrait être de voir privilégier les gros sites et les sites de “marque” au détriment des sites plus modestes.

  • Christophe
    1 février 2011 11 h 08 min

    Tien au fait ! Et les annuaires du style pages jaunes et autres site spécialisés où il faut payer pour voir son nom sur le site ? seront-il aussi considéré comme des fermes de contenu ou de liens ? j’espère que oui car ils sont toujours les favoris de google mais pour moi ils ne garantissent pas la qualité du service proposé.

  • NG
    18 février 2011 22 h 39 min

    Merci d’avoir cité ITespresso dans votre billet 😉

Ce n'est pas possible de commenter pour le moment.