fbpx
Logo Ya-graphic : Création de boutique en ligne et référencement Google
Nous sommes à votre service pour vous proposer le meilleur service de référencement Google et de création de site e-commerce. Depuis 2008 nous apportons satisfaction à nos clients, qu'ils soient de France ou d'ailleurs.
3 av Adrien Mazet, Rés La Carraire, bât c - n°36, Miramas, FR
(+33) 06.52.64.70.04
contact@ya-graphic.com
Suivez YA-GRAPHIC

7 causes de pénalités manuelles expliquées par Matt Cutts (et solutions)

Vidéo de Matt Cutts

7 causes de pénalités manuelles expliquées par Matt Cutts (et solutions)

Matt Cutts propose sept nouvelles vidéos dans YouTube – traduites en Français – pour expliquer les causes de pénalités manuelles – ou actions manuelles – les plus fréquentes qui pourraient toucher les sites web qui s’adonnent au webspam.

Vidéo de Matt Cutts

La semaine dernière Google proposait un nouveau lien dans Google Webmaster Tools : les « Actions manuelles ». C’est une option qui permet au webmaster de savoir concrètement pourquoi son site web a été touché par une pénalité manuelle de Google. Il existe en effet différents cas de spam :

1. Le spam de contenu généré par les utilisateurs

Le spam généré par l’utilisateur peut être détecté dans un forum, un blog avec les commentaires activés, les livres d’or, etc. En cas de spam généré par l’utilisateur la pénalité n’affecte qu’une partie du site web. Exemple : le site de Mozilla avait été touché par une pénalité de Google. Matt Cutts préconise l’utilisation d’un captcha complexe, l’activation de la modération des commentaires, l’application de l’attribut rel=nofollow aux liens hypertextes, etc.

2. Le texte caché et / ou le Keyword Stuffing

Il s’agit de techniques qui consistent à cacher le texte aux utilisateurs, mais pas aux moteurs de recherche et aux ordinateurs. Le Keyword Stuffing est une répétition de mots clés et peut prendre la forme d’un texte incompréhensible généré par un programme.

3. Le spam pur et simple

Matt Cutts parle de blackhat. Dans ce cas la pénalité touche généralement la totalité du site web.

4. Le contenu peu informatif, sans intérêt pour les utilisateurs

Matt Cutts prend l’exemple des pages satellites. Il explique le cas d’une entreprise qui crée une page pour chaque ville. La première page contient un contenu raisonnable, les autres disposent d’un contenu identique à la première, seul le nom de la ville change. Ces pages là sont inutiles, ajoute Cutts, leur contenu est peu informatif. Cutts cite également les sites affiliés ou pages d’affiliation, mais aussi la syndication – récupération de contenu de piètre qualité ou sans valeur ajoutée.

5. Les liens non naturels depuis un site tiers

Dans cet article Matt Cutts et son équipier disent aux webmasters de supprimer les liens non naturels qu’ils ont acquis pour leur site web pour « gagner ou regagner la confiance de Google ». Cutts leur propose de se faire aider par un consultant SEO ou une agence. Pour gagner cette confiance ils demandent aux webmasters de leur fournir une documentation via la demande de réexamen à Google pour prouver qu’ils font des efforts. Cette documentation aidera beaucoup Google affirme le co-équipier de Cutts.

6. Les liens non naturels depuis son site web

Dans cette vidéo ci-dessous Matt Cutts et son équipière expliquent la différence entre un lien naturel et un lien non naturel. Le lien naturel peut se définir comme un choix éditorial, c’est un lien vers un site que les utilisateurs estiment utile. Concernant les liens non naturels il s’agit généralement de vente de liens, d’échanges de liens excessifs – Google tolère donc les échanges de liens mais avec modération -, de liens qui pointent vers des sites au contenu de piètre qualité et contenant du spam. Ils donnent des solutions pour traiter les liens non naturels, il y a notamment l’application de l’attribut rel=nofollow, l’ajout d’une instruction de blocage d’URL dans le fichier robots.txt, voire même la suppression des liens.

7. Les liens non naturels depuis un site – actions sur ces liens

Dans cette vidéo Matt Cutts explique quel est l’objectif de son équipe anti webspam. Il précise ensuite que Google a beaucoup avancé dans sa lutte contre le webspam. Avant un domaine, un site entier pouvait être touché par une pénalité de Google, aujourd’hui Matt Cutts affirme que Google s’inscrit dans un cadre plus protecteur. Google peut simplement annuler la valeur des liens considérés comme non naturels.

De manière générale la solution préconisée par Google est le nettoyage du site. Tout site web touché par une pénalité peut sortir de sa pénalité si le travail de nettoyage est bien réalisé et si le webmaster est de bonne foi. C’est un peu comme si Google invitait les webmasters à la rédemption.

Yassine A.

Expert visibilité Google (SEO, webmarketing) depuis plus de 10 ans. Certifié Google. Créateur de boutiques en ligne et responsable e-commerce. Basé en France métropolitaine.

Commentaires : 2

  • Loïc
    12 août 2013 8 h 33 min

    Un bon récapitulatif mais qui donne tout de même l’impression que Google a encore du mal a distinguer le bon contenu du mauvais (hors soupe de mots-clés vraiment incompréhensible).

    Reste le linking sur lequel il a tout de même fait de gros progrès en terme de “chasse au spam”, il faut bien l’avouer parce que la plupart des SEO n’hésitaient pas il y a encore un an ou deux a balancer du lien de type CP en masse. Le fait est que chaque nouvelle mesure rend les référenceurs plus prudents et complexifie autant les futures mesures que Google devra prendre.

  • Bon Cheap Bon Genre
    12 août 2013 11 h 23 min

    Ce qui me rassure, c’est que dans l’ensemble, ça reste quand même du bon sens. On nous demande de faire un travail “naturel”, donc basé sur ça, ça permet d’éviter toutes pratiques non naturelles qui seront pénalisées…

    Annaïs

Ce n'est pas possible de commenter pour le moment.