200 critères pour positionner un site en top 10 dans Google

Pour chaque critère, l’importance se mesure en étoiles. Bonne lecture. SEOPUBLISSOFT saura vous conseiller pour les mots-clés que vous souhaitez positionner en top 10.

1. Age du domaine

★ ★

L’ancienneté d’un site joue en sa faveur. Pour en tirer encore un meilleur parti, conservez la thématique tout au long de sa vie du site, ajoutez du contenu et faites des mises à jour de vos meilleurs contenus.

Le SEO ça prend du temps

2. Exact Match Domain

★ ★

L’exact Match Domain a longtemps été un outil permettant de positionner un site sans trop d’effort sur son l’expression clé correspondant exactement à son nom de domaine (telephone-pas-cher.com par exemple). C’est beaucoup moins vrai depuis l’EMD update de Google en octobre 2012… sauf si votre site est considéré comme “qualitatif”.

3. Contient des mots clés

Même principe que l’EMD mais en – nettement – moins performant.

4. Mots clés en premier

Si vous devez placer des mots clés dans votre nom de domaine, positionnez-les en premier. Un (très) léger bonus pourra jouer en votre faveur.

5. Mots clés dans le sous-domaine

Même principe que pour les mots clés dans le domaine, mais avec encore moins de poids !

6. Historique du domaine

★   ★

Moins le domaine a changé de propriétaire mieux c’est. Une certaine stabilité est préférables aux yeux des moteurs, qui y voient un signe (minime) de qualité.

7. Enregistré pour longtemps

Partant du principe que les spammeurs du web utilisent des domaines pour une durée courte, une réservation d’un domaine pour une longue durée est un signe de qualité.

8. Whois non anonyme

Pour un moteur de recherche (Google possède aussi un réseau social…), l’anonymat est suspect !

9. Propriétaire non pénalisé

Si vous avez abusé à maintes reprises des faiblesses de Google et qu’il vous a détecté plusieurs fois, la fois suivante vous rendre aussi suspect !

10. Extension adaptée

Il existe deux types d’extensions : les génériques (.com, .net, .org, .travel…) qui ne sont pas rattachée à une zone géographique et les nationales (.fr, .co.uk, .be…) qui indique au moteur de recherche dans quel pays vous évoluez. Prenez soit une extension généraliste soit une du pays que vous visez. Dans le cas d’un site à vocation internationale, seul le générique est possible.

11. Pas de frame

★   ★

Les frames, cadres en français, sont une structure de site obsolète qui posait des problèmes aux moteurs. A ne pas confondre avec les iframes, acceptables pour intégrer des contenus vidéos par exemple. Un bon audit SEO doit vous mettre à l’amende sur ce point !

12. Recours limité au flash

★   ★

Le flash permet des fonctionnalités que le html 5 commence tout juste à proposer. Pour ses avantages esthétiques, certains sites ont été réalisés intégralement en flash. C’est à proscrire car même si des techniques existent, le flash reste mal parcouru par les moteurs. Pour résumer, le flash c’est mal. Et quand c’est bien, c’est mal quand même.

13. Pages accessibles par des liens

★   ★   ★

Le robot des moteurs de recherche parcourent un site en allant de page en page grâce aux liens qui les relient. Donc si vous voulez leur faciliter la tâche, faites en sorte que toutes vos pages utiles soient accessibles en cliquant depuis la page d’accueil.

14. Sitemap du site fourni

★   ★

Le plan de site est un fichier à créer et fournir aux moteurs pour leur permettre de trouver plus facilement les pages à indexer. Si certaines pages ne sont pas accessibles par des liens (par exemple des pages créées suite au remplissage d’un formulaire) le ou les plans de sites vont s’avérer utiles.

15. Fraîcheur du sitemap

Un plan de site doit aussi être à jour. Inutile de le rafraîchir chaque heure, mais une fois par semaine me paraît un bon rythme.

16. Urls sans paramètre de session

Les paramètres de session sont une technique obsolète pour identifier un visiteur et contrôler les accessibles. Malheureusement, ces paramètres perturbent le parcours des robots qui peuvent se trouver de nouvelles pages à chaque visite ce qui fait obstacle à leur bonne compréhension du site.

17. Contenus lisibles par les robots

★   ★

Les robots des moteurs doivent pouvoir lire les contenus proposés. Ainsi si vous mettez dans vos textes dans des images, des vidéos ou du flash, vous privez quasi totalement les robots du contenu de votre site.

18. Présence d’un fichier robots.txt

★   ★

Un fichier robots.txt placé à la racine du site va donner aux moteurs de recherche des directives sur ce qu’ils doivent indexer ou non. C’est un signe de qualité et la possibilité d’éliminer des répertoires entiers à ne pas visiter (back office par exemple). Attention, cela n’empêche pas un utilisateur malicieux de voir quels accès vous interdisez dans votre fichier robots.txt et d’y aller lui-même !

19. Contenus pdf sélectionnables

★   ★

Si votre site présente une partie de ses contenus sous formes de fichiers pdf, il est préférable que le contenus de ces derniers soit lisible. Pour valider cela, vérifier que vous pouvez copier / coller le texte. Attention à ne pas doublonner vos contenus par vos pdf. Chaque contenu doit être différent (sinon désindexez les pdf en contenu dupliqué)

20. Thématique des pages émettrices

★   ★

Idéalement un lien d’une page doit envoyer vers une page en relation avec la thématique. C’est un des principe de base des cocons sémantiques, pour les puristes.

21. Ancres descriptives

★   ★

Sur les liens internes, vous devriez ancrer sur des expressions clés si possible. Les ancres génériques (“cliquez ici”) sont moins performantes.

22. Volume de liens internes pointant vers la page

★   ★   ★

Les liens internes sont une façon de prioriser vos pages et Google en tient compte.

23. Thématique des liens sortants

★   ★   ★

Aux yeux des moteurs de recherche, un article utile doit indiquer des sources et/ou vous proposez d’autres contenus sur le même sujet. Je pense même que faire un lien vers des concurrents peut vous aider… Mais les aidera aussi !

24. Nombre de liens sortants

★   ★

Trop de liens sortants est suspect. Quelle limite reste acceptable ? Difficile à dire. Pour moi, c’est lié à la qualité du contenu. Le ratio volume de texte sur lien doit rester raisonnable. Si vous avez une bonne raison de faire beaucoup de liens sortants, passez-les en nofollow (solution 0 risque) ou paginez votre contenu.

25. Notoriété des liens sortants

Pointez vos liens sortants vers des sources de qualité. Si vous manquez d’inspiration, pointez aussi vers wikipedia, youtube et des réseaux sociaux.

26. Site liés non douteux

Ne pointez pas vers des sites avec des virus ou dans des thématiques honnies par Google (pornographie, médicaments bleus, etc). Si vous devez le faire, utilisez du nofollow, cela lèvera toute ambiguïté

27. Pas de contenu dupliqué interne

★   ★   ★

L’écueil majeur des sites e-commerce. Vous vendez des produits très proches, vous utilisez donc les mêmes descriptifs… Évitez cela, débrouillez vous pour différencier le contenu des pages en question, quitte à paraphraser. Oui, c’est du boulot.

28. Conformité W3C

Les puristes jugent cela assez important, pas moi, simplement parce que le respect d’une norme technique n’implique pas nécessairement que le contenu soit qualitatif. Focalisez-vous sur la rapidité du serveur et l’expérience client. Le W3C attendra.

29. Longueur des urls profondes

★   ★

Évitez les urls à rallonge en les truffant de mots clés. C’est une technique obsolète. Utilisez l’url rewriting, oui, pour faciliter la lecture des urls par le visiteur (même si les navigateurs tendent à les masquer…) et faites court et significatif. Supprimez notamment les stop words (“à”, “de”, etc.) qui alourdissement.

30. Pages peu profondes

★   ★

Comptez le nombre de slashs (“/”) après votre nom de domaine. Au delà de trois ou quatre, vous êtes allé trop loin ! (prenez un autre expert SEO, il aura probablement un point de vue différent…)

31. Urls en sous-répertoires

★   ★

Consigne officielle de Google, si un internaute coupe votre url profonde après un slash, la page ne doit pas renvoyer une erreur. Dans l’exemple d’un site e-commerce avec des catégories et sous-catégories, cela doit le renvoyer vers la catégorie supérieure. En général c’est désormais supporté nativement par les logiciels comme magento ou prestashop (le référencement de sites e-commerce pose souvent des difficultés spécifiques).

32. Usage des microformats

★   ★   ★

Une vraie priorité ! Foncez sur schema.org et bossez le sujet. Jetez ensuite un coup d’oeil vers les plugins ad hoc et mettez cela en place. Le but est de qualifier votre contenu pour en faciliter la mise en base de données et sa restitution dans les résultats de recherches. Gros signe de qualité dont l’importance va aller croissante. Sans compter les affichages sympathiques dans les résultats de recherche !

33. IP géolocalisée

Si vous avez la possibilité d’héberger votre site sur une adresse IP géolocalisée dans le pays où se trouve votre clientèle, c’est mieux. Quid du site international ? Faut-il une IP par pays ? Non, à mes yeux, l’investissement que cela représente me paraît disproportionné au regard du bénéfice attendu en termes de référencement naturel

34. Meta Robot en index, follow

La base : autoriser les robots à visiter et indexer votre site. Vous trouvez cela trivial ? J’ai vu un site à 150 000 euros qui après développement et lancement officiel n’avait pas corrigé ce point. Résultat, le site n’était pas indexé du tout !

35. Déclaration Google Webmaster Tools

★   ★

Moins les “spammeurs” se donne la peine de faire quelque-chose, plus vous devez essayer de le faire pour votre site. S’inscrire à Google Webmaster Tools (GWT pour les intimes) va non seulement mettre votre site sur Google plus vite mais surtout va montrer à Google que vous prenez au sérieux la gestion de votre site. En prime vous aurez de précieuses informations sur votre positionnement de site.

36. Google Analytics

★   ★

Au delà de l’aspect quasi vital de suivre vos statistiques de trafic, vous envoyez à Google un signal sur votre volonté de suivre votre site.

37. Langues correctement séparées

★   ★

Si vous avez un site multilingue, assurez-vous que les langues sont bien repérées dans le head de vos pages. Un robot qui “hésite” prend souvent la décision de ne pas classer correctement une page.

38. Langues repérées par norme IANA

La norme IANA vous précise comment chaque langue doit être repérée. Évident ? Oui, mais ce serait d’autant plus bête de ne pas jouer le jeu !

39. Balise canonical

★   ★

L’arme #1 anti duplicate content. Vous indiquez aux robots quelle version de la page ils doivent utiliser… Et donc celles qui ne sont pas utiles. Encore un signe de qualité on-site !

40. Balise link rel prev/next

★   ★

Dans le cas de longs articles, vous pourriez avoir envie de paginer (ce qui a pour effet d’augmenter votre nombre de pages vues pour un même article, utile pour des sites dont le modèle économique est la publicité en display). Google a aussi prévu cela et vous donne les consignes ad hoc. En vidéo s’il vous plaît !

41. Balise alt des images

★   ★

A l’origine la balise alt sert à améliorer l’accessibilité des sites aux personnes déficientes visuellement (leur navigateur “lit” le alt des images). Évidemment le référenceur SEO de base a encore vu là une occasion de mettre des mots clés… Et c’est toujours d’actualité. Sauf qu’il faut le faire sans excès : un peu de mots clé mais surtout une description pertinente, qui vous évitera le keyword stuffing.

42. Nom des fichiers image

L’idéal est de nommer les fichiers images avec des noms explicites. Img001.jpg est moins utile que chat-chevauchant-licorne.jpg. (Je serai curieux de voir une telle image… Tiens en voilà une. C’est fantastique Internet.)

43. Titre de la page en rapport avec le contenu

★   ★   ★

La base du SEO, la balise title. Toujours incontournable, elle devient plus complexe à gérer. Ici encore, privilégiez d’abord le visiteur avec un titre accrocheur. Si vous réussissez à mettre des mots clés c’est encore mieux. L’important restant un titre en accord avec le contenu de la page. Le fait de marquer partout mp3 sur site qui ne traiterait que de photographie serait pour le moins mal vu.

44. Balises titre différentes

★   ★   ★

D’une page à l’autre, vous devez varier les titres. Méthode 1 : le même titre partout. C’est non. N’insistez pas. Méthode 2 : des titres automatisés. C’est acceptable si vous faites un minimum d’effort pour rendre les choses naturelles. Méthode 3 : un titre 100% manuel. Le top mais pas toujours réaliste sur un site e-commerce avec 20000 produits (par défaut le titre est souvent le nom du produit, repris en général en balise h1, c’est moyen mais acceptable si vous n’avez pas le temps de faire mieux)

45. Mots clés en gras

★   ★

Le gras indique une mise en avant. Les expressions en gras auront donc un poids perçu par le moteur comme plus important.

46. Mots clés en italique

L’italique met en évidence aussi un contenu (souvent un citation ou une référence). C’est un bon moyen de démarquer vos expressions clés… tant que vous n’abusez pas ! Vous octroyez ainsi un – léger – bonus à ce contenu.

47. Meta descriptions différentes

★   ★   ★

Tout comme les titres, vos meta descriptions doivent être différentes d’une page à l’autre, même si vous avez l’impression que Google les réécrit pour vous, c’est un critère de qualité incontournable.

48. Mots clés dans la meta description

Inutile d’un strict point de vue optimisation de site web en SEO. Les moteurs ont clairement indiqué depuis longtemps ne pas prendre en compte ce critère. Certes, mais dans les résultats de recherche, les mots clés tapés par l’internaute présent dans votre meta description sont mis en gras, ce qui attire le clic et vous bonifie pour taux de clic plus élevé. Un peu alambiqué, mais réel.

49. Fraîcheur du contenu

★   ★   ★

Il existe même une option de recherche directement dans Google pour ne visualiser que les résultats les plus frais. En résumé, un contenu récent est mieux apprécié qu’un contenu ancien car potentiellement obsolète. Pour relancer un vieil article, n’hésitez pas à la mettre à jour en profondeur, vous bénéficierez de l’ancienneté et de la fraîcheur !

50. Taille des mises à jour

★   ★

Une mise à jour de page se doit d’être suffisamment consistante. Un mot de changé ne suffira évidemment pas. Quelle est la bonne dose ? Difficile de le dire, mais je pense qu’un tiers peut être représentatif.

51. Fréquence de mise à jour

Un bon contenu est frais mais aussi régulièrement augmenté.

52. Orthographe

★   ★

Oui, l’orthographe d’une page doit faire partie des critères d’évaluation, pour au moins deux raisons : 1) une orthographe déplorable nuit à l’expérience utilisateur. 2) Cela doit insinuer un doute sur le caractère qualitatif de la chose. Évidemment, une faute ou coquille de temps à autre ne va pas remettre en cause la page (sinon je serai bien embêté !). A l’époque de gloire des skyblogs, ils ne remontaient pas dans les pages de résultats alors qu’il y avait plusieurs millions de pages de contenu unique… mais bourré de fautes.
Allez, pour le fun, un exemple assez musclé de ce que j’évoque ci-dessus. (Je suis allé le chercher en page 10 de Google…)

53. Pas de contenu dupliqué externe

★   ★   ★

Un point fondamental. Si votre contenu existe déjà ailleurs sur le web, votre contenu sera ignoré (mis dans “l’index secondaire” de Google, ce qui revient au même). Votre contenu doit être unique. Si vous devez reprendre quelque-chose mot pour mot, commentez-le pour diluer la copie.

54. Pas de contenu dupliqué interne

★   ★   ★

Éviter la multiplication des pages ayant une url différente mais un contenu identique. C’est souvent délicat car les sources de contenu dupliqué interne sont nombreuses (je pense navigation à facette et paramètres d’urls). Deux solutions : Google Webmaster Tools et la balise canonical.

55. Usage d’images

★   ★

Un contenu un minimum travaillé contient forcément des images. Les études sur l’engagement sur Twitter montrent ainsi qu’un tweet avec une image améliore le taux de retweete. Ce qui est vrai sur Twitter l’est aussi probablement ailleurs et doit être utilisé comme indicateur par Google.

56. Usage de vidéos

L’usage d’images dans un contenu en renforce l’intérêt. Par extension on peut penser qu’il en va de même pour la vidéo. Sans compter que Google gagne de l’argent avec la publicité sur youtube, premier support de vidéo. Donc privilégier la vidéo c’est indirectement faire du chiffre d’affaires. Il n’y a pas de petits profits (que des gros en l’occurrence)

57. Vidéos optimisées (VSEO)

Tant qu’à utiliser de la vidéo, autant bien l’optimiser Cette branche du SEO, appelée VSEO, permet de gagner de la visibilité dans les résultats de recherche. Certes les vidéos n’occupent que 1 à 2 résultats, mais elles sont fortement mises en avant. Donc jouez cette carte, le optimiser le référencement naturel de vidéos n’est pas très complexe : taggez proprement, décrivez en 300 mots minium avec des mots clés. Et des vues. C’est bien aussi des vues (au moins pour l’ego).

58. Absence de liens cassés

★   ★

Un lien cassé est un indicateur de mauvais entretien d’un site. Surveillez cela, vous donnerez une bonne image de votre site (à Google et vos visiteurs). Pour WordPress le plugin Broken Link Checker scanne vos contenus et vous alerte. Sinon, des outils comme Xenu vont aussi vous aider.

59. Niveau de lecture

Une approche linguistique d’un texte permet de déterminer le niveau de celui-ci, à savoir s’il est destiné à des experts ou au contraire à des débutants (pour les curieux, testez le logiciel “Cordial”). Il n’est pas impossible que Google mette en relation des requêtes d’un certain niveau avec des contenus adaptés.

60. Ancienneté du contenu mis à jour

Un contenu âgé présente un risque d’obsolescence Mais s’il le bon goût d’être actualisé sur une base régulière, il bénéficie d’une valuation basée sur son ancienneté et sur le fait qu’il est mis à jour. Il reste à déterminer quel part d’un contenu doit être mis à jour pour être perçu comme rafraîchi !

61. Présence de sources citées

Un bon auteur cite ses sources (autant que possible !). Cette règle élémentaire est aussi une façon de montrer la qualité d’un contenu.Donc si vous avez des infos que vous reprenez d’autres sites, n’hésitez pas à les lier. Je conseille même de mettre explicitement le mot “sources” pour clarifier la chose.

62. Pertinence des sources citées

Règle plutôt facile à suivre, si vous citez des sources, faites en sorte qu’elles soient pertinente. Faire un lien sortant vers une source discutable pourrait être mal perçu.

63. Fraicheur de la page sur certaines requêtes

★   ★   ★

La fameux “Query Deserve Freshness” ou QDF pour les intimes. L’idée est simple : sur certaines requêtes précises, l’internaute attend une information fraîche. Par exemple des résultats sportifs ou l’actualité. Donc la fraîcheur de la page est impérative pour ces requêtes et les gros sites d’actualités sont crawlés plusieurs milliers de fois par jours.

64. Contenu tout public

★   ★

Google fait toujours preuve d’une certaine pudeur voire pudibonderie. Si vous êtes sur des segments non pornographiques mais à risques (lingerie, sex toys, etc.), traquez les images qui pourraient vexer notre moteur de recherche. J’ai eu un débat avec l’équipe d’adwords pour un site de lingerie nous en étions arrivés à déterminer le degré de transparence pour qu’une poitrine passe du statut de dénudée à assez habillé (et classe le site en public averti plutôt qu’adultes seuls). Utilisez de petites masques aux endroits suspects. Oui, votre graphiste va être heureux.

65. Fournir un contenu utile

★   ★   ★

Oui, j’entends déjà les molles protestations de ceux qui sont arrivés jusque là. Comment définir “utile” ? Le guide interne pour les quality raters de Google (“examinateurs de la qualité”) indique clairement qu’un bon contenu doit avoir une valeur ajoutée pour le lecteur. Alors au boulot !

66. Crédit des photos

Marginal mais possiblement favorable, le fait de créditer les auteurs de photos montre une bonne volonté quant au respect des contenus.

67. Modération des contenus utilisateurs

★   ★   ★

Essentiel au moins dans l’optique de ne pas se faire spammer. Un commentaire un peu trop flatteur et pas assez précis ? Suspect. Dans le doute supprimez tous les liens sortants ou mettez les en nofollow. Sinon Google peut devenir méfiant sur votre capacité à maîtriser le contenu généré par les utilisateurs. A titre d’exemple un site dont j’avais la charge en référencement sur Google était basé sur un wordpress. Le client l’a laissé en validation automatique. 15 jours plus tard, 9000 commentaires spammy et le site qui avait dégagé de quelques pages !

68. Présence de commentaires

Une page qui reçoit des commentaires (produits ou posts de blogs) montre d’une certaine manière qu’elle intéresse les visiteurs. De ce fait elle doit percevoir un petit bonus.

69. Avis clients certifiés

★   ★   ★

Utiles bien au delà du référencement naturel sur Google, les témoignages clients (à équiper en micro données) basés sur des plateformes en lesquelles Google a confiance sont un vrai plus. Dans visuellemetn dans les résultats de recherche qu’en terme de qualité de l’offre. Incontournable en e-commerce, plutôt malin sur un site vitrine, mais plus délicats à implémenter.
Ci-dessous un exemple pour Trustpilot, mais il existe aussi ekomi, etc.

70. Mots clés dans le titre

★   ★   ★

Aussi vieux que le web, mais toujours aussi utile. La balise titre joue un rôle central dans le SEO (et doit contenir les mots clés prioritaires) mais un peu au-delà. C’est elle qui est affichée en bleu dans les résultats, donc elle doit aussi servir de support à votre communication. Quant à sa longueur, Google a changé puisqu’il n’affiche qu’un certain nombre de pixels, le reste étant tronqué. Pour éviter cela, limitez-vous à environ 50 ou 60 caractères. Oui c’est court, donc soyez concis !

71. Mots clés en début de titre

La position des mots clés dans le titre n’est pas équitable : positionnez si possible les plus importants en premiers.

72. Mots clés dans la meta description

Disons-le de suite, la présence mots clés dans la balise meta description n’a pas de poids direct au sein de l’algorithme de Google. Simplement Si vos mots correspondent à ceux de l’internaute, ils seront mis en gras et attirerons plus facilement le clic. De là à faire de votre meta description une suite de mots clés, ce serait une erreur : soyez plus subtil que cela, c’est un des seuls éléments qui permettra à l’internaute de choisir s’il clique sur votre site dans les résultats de recherche.

73. Mots clés dans la balise h1

★   ★   ★

Tout comme le titre, le h1 a un poids élevé dans l’évaluation d’une page. Insérez quelques mots clés, mais pensez d’abord à votre lecteur. Attention, une unique balise h1 par page. Et par pitié, pas sur un logo comme je l’ai souvent vu !
Pour aller plus loin : http://cbutterworth.com/do-h1-tags-still-help-seo/, une petite étude sur l’impact d’un h1 et des styles de celui-ci.

74. Mots clés dans les balises Hx

★   ★

Sans avoir l’importance du h1, les balises h2 à h6 sont aussi des endroits où nicher des expressions clés issues de votre analyse sémantique Ces balises peuvent être utilisée plusieurs fois sur une même page. N’abusez pas de la longueur, on parle de titre, pas de paragraphes complets.

75. Densité supérieure des mots clés

Ce serpent de mer pour toute agence de référencement naturel n’est plus aussi vrai que par le passé. Il n’y a jamais eu de densité idéale, mais force est de constater que d’augmenter la fréquence des mots clés sur une page aide un peu. Gare à l’excès ! Au final je propose de varier avec des synonymes ou des mots du même champ lexical. Vous manquez d’inspiration ? Le générateur de mots clés Adwords peut vous aider.
Ci-dessous le meilleur outil (gratuit !) pour analyser la densité, avec une exemple pour http://fr.wikipedia.org/wiki/Optimisation_pour_les_moteurs_de_recherche.

76. Richesse sémantique

★   ★

La richesse sémantique est le fait d’utiliser des expressions différentes appartenant à une même thématique. C’est assez différent de la vielle méthode qui consistait à marteler la même expression. La subtilité devient nécessaire.

77. Mots clés dans les premiers mots

Vous avez parfois vu ces petites phrases en haut des sites, au-dessus même du header ? Elle étaient là pour placer tout en haut de la page des mots clés. Marginal mais pas forcément une mauvaise idée, au moins sur la home uniquement.

78. Présence de mots clés exacts

★   ★   ★

C’est évident mais j’aime enfoncer des portes ouvertes, c’est moins douloureux : pour bien référencer son site sur des expressions précises, c’est mieux de mettre les mots clés en questions.

79. Présence de mots clés proches

★   ★

J’ai déjà évoqué l’aspect sémantique dans l’usage de vos mots clés, je le redis ici : variez.

80. Mots clés dans l’url

A l’avènement de l’url rewriting, c’était la triplette du bourrin (avec le titre et le h1). Aujourd’hui, vu les abus constatés (urls à rallonges…), je pense que ce n’est pas vital. Utilisez-le mais surtout dans l’optique d’améliorer la lisibilité de vos urls pour un utilisateur.

La triplette du bourrin

L’optimisation de base que la plupart des sites utilise est une répétition des mots clés principaux en trois endroits stratégiques :

  • Title
  • URL
  • H1

J’appelle cela la triplette du bourrin. Rien de péjoratif dans cette définition, mais plutôt une évocation d’un manque de finesse certain dans l’optimisation et l’interconnexion de ces 3 éléments vitaux d’une page Web.

81. Longueur du contenu sur la page

Certains se sont amusés à mettre en relation longueur d’un post de blog et position dans les résultats. Au final, 2500 mots semble être une bonne norme. Évidemment, c’est un résultat statistique. Mais l’idée de base est surtout que 100 ou 200 mots ne sont pas optimaux.

82. Nombre de pages

★   ★   ★

Je suis un fervent défenseur de cela. La taille d’un site (hors contenu dupliqué) vous aide. Pas forcément de manière directe mais je pense qu’il y a une corrélation entre nombre de pages et trafic naturel. Un site qui parle d’un sujet sur une page sera moins intéressant qu’un site qui se pose en bible sur le sujet. Pour aller plus loin, un e-commerçant qui propose 1000 références sur 30 marques recevra moins de trafic qu’un e-commerçant proposant 10 000 références sur 300 marques, la longue traîne jouant ici son rôle !
L’étude US téléchargeable : http://offers.hubspot.com/marketing-benchmarks-from-7000-businesses
L’analyse en français de cette étude : http://ludismedia.com/comment-attirer-plus-de-trafic-vers-votre-site-web/

83. Pas de “shallow content”

★   ★   ★

Le “shallow content” (contenu faible) se caractérise par un volume de texte faible, quelques dizaines de mots. C’est assez fréquent pour un site ecommerce de manquer d’inspiration pour décrire sa 638è coque iphone. Hélas, il faudrait avoir ce courage d’écrire plus, même si c’est particulièrement fastidieux (voire punitif).

84. Fréquence d’ajout de contenu

★   ★

Un bon site vit, s’enrichit et s’actualise. Un site qui produit fréquemment du contenu retiendra l’attention des moteurs.

85. Espaces publicitaires modérés

★   ★   ★

Google vend de la publicité. Beaucoup. Mais il préconise aussi de ne pas aller trop loin dans leur affichage. Un peu de pub, ok, trop non. Et je ne parle pas des modalités d’intégration d’adsense.
Ci-dessous un contre exemple… de chez Google… Avec 80% de pub (une page de test a priori. Source : https://twitter.com/dr_pete/status/456446848224350209/photo/1 

86. Contenu principal visible

★   ★

Oui, cela paraît évident mais le contenu utile doit être visible immédiatement. Cela paraît évident, mais c’est une recommandation écrite dans les GuideLines de Google.
Source : Guidelines de Google

87. Fil d’Ariane

Le fil d’Ariane va aider votre visiteur à comprendre la structure de votre site, à remonter dans les catégories, bref l’aider. Je vois déjà ceux qui essaie d’y mettre des mots clés. N’en faites pas une priorité. Aidez votre visiteur car c’est devenu important avec l’algorithme Google Page Experience qui va être appliqué en mai 2021.

Les articles avec la meilleure expérience utilisateur seront désormais priorisés par Google.

88. Version mobile

★   ★

Aujourd’hui la part du mobile dans les recherches reste faible, mais elle grandit vite et les visiteurs s’agaceront bientôt d’un site non responsive. Prenez les devants, je pense que cela aidera d’une manière ou d’une autre à l’avenir.

89. Fil RSS

Le fil RSS permet à ceux qui le souhaitent de vous suivre. Un peu moins utile depuis Twitter ou autre, mais dans la mesure où c’est nativement intégré à la plupart des solutions open sources, mettez le en place.

90. Favicon

La favicon, c’est le détail qui va vous crédibiliser. A faire pour au moins développer votre marque.

91. 404 personnalisée

★   ★

Ne vous leurrez pas, vous avez forcément des visiteurs qui y passeront. Alors soignez-les aussi. C’est Google qui le dit. Vous pouvez même jouer avec cette page (404 lemmings de http://www.romainbrasier.fr/404.php). Pour ceux qui se demandent si cela vaut le coup, il a encore 21 domaines qui pointent cette page uniquement. Bon ok, elle est en 404 😉

92. Eléments tactiles de taille suffisante

Avec le développement de la navigation sur tablettes et mobiles il faut absolument pense rà rendre les boutons cliquables faciles à utiliser (donc grands et bien visibles).

93. Pas de plugin externe à installer

★   ★

Souvenez-vous des vidéos qu’il fallait charger avec un plugin realplayer. Beurk ? Donc évitez les contenus inaccessibles sans une installation complémentaire.
Source : https://developers.google.com/speed/docs/insights/AvoidPlugins?hl=fr

94. Temps de réponse du site

★   ★   ★

S’il n’y en a qu’un qui doit vous obséder, c’est celui-là. Il est la conséquence de tous les autres mais c’est au final celui que perçoit réellement l’utilisateur. Le web doit être rapide, Google le dit clairement et fournit des outils ad hoc depuis des années. Ils ont même fait une vidéo. C’est pour dire. Pour les heureux webmasters de worpress, j’utilise WP-Rocket, un code français et j’en suis très content (et donc je vais leur faire un peu de pub. S’ils leur prenaient l’envie d’upgrader ma licence, je dis pas non…). De manière générale, une offre de référencement haut de gamme devrait toujours intégrer cet aspect du travail de SEO.
Source : http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html

95. Dates d’expiration dans les entêtes

Précisez des dates d’expiration dans les entêtes des pages. Soyez généreux, sauf si vous avez une bonne raison de penser que la page va être remise à jour très vite (ce qui dans les faits est très rare pour la très grande majorité des sites)

96. Cache des ressources statiques

★   ★   ★

Mettez en cache les ressources statiques (images, codes divers, etc)

97. Réduire les requêtes DNS

★   ★

Chaque requête dns (la conversion d’un nom de domaine en IP) prend du temps. Limitez-les voire préchargez-les (“prefetch”).

98. Minimiser les redirections

Les redirections sont autant d’éléments à charger à nouveau. L’idée est d’éviter que la page A pointe en 301 vers B qui pointe en 301 vers C. Faites A vers C et B vers C, vous gagnez un saut.

99. Eviter les requêtes en 404

★   ★

Si vous allez chercher des codes externes au site, assurez-vous qu’il se chargent bien. Une 404 coûte du temps.

100. Combiner les fichiers javascript

★   ★

Au lieu de charger 10 fichiers javascript, pourquoi ne pas les fusionner en un seul ?

101. Combiner les fichiers CSS

★   ★

Au lieu de charger 10 fichiers CSS, pourquoi ne pas les fusionner en un seul ?

102. Utiliser les sprites CSS

Les sprites CSS sont une seule image qui en contient plusieurs, on charge l’ensemble une fois pour toute et on extrait les images utiles aux bons endroits.

103. Mettre les CSS en début

Positionnez les CSS en début de page, cela évitera de la reconstruire dans le navigateur par la suite

104. Mettre les scripts en fin

★   ★

Les scripts sont lourds et souvent peu utiles au chargement (sauf exception). Allez les chercher à la fin, quand le visiteur a déjà son contenu devant les yeux.

105. Limiter document.write()

Évitez d’utiliser cet outil, peu efficace en terme de rapidité.

106. Limiter @import

Évitez d’utiliser cet outil, peu efficace en terme de rapidité.

107. Préférer les requêtes asynchrones

★   ★

Si vous pouvez décaler certaines requêtes faites le. Je pense par exemple au lazy loading, le fait de charger les contenus (images en priorité) sous la ligne de flottaison qu’à partir du moment où le visiteur les demande. C’est le cas par exemple des commentaires sur youtube (exemple sur la vidéo du Gangnam Style, qui a passé la barre de 2 000 000 000 de vues (!!).

108. Paralléliser les requêtes

★   ★   ★

Les navigateurs ne chargent en parallèle pour un même domaine qu’un certain nombre de requêtes. Pour contourner cela, utiliser des domaines (ou sous-domaines) différents. Ainsi, vous pourrez charger plus de ressources en parallèle. Cette technique s’appelle le “domain sharding”.
Voir le point 126 pour un test complet en image.

109. Limiter la taille des entêtes

★   ★

Évitez les entêtes à rallonge. Réduisez le code à ce qui est utile.

110. Limiter la taille des cookies

Évitez les cookies trop lourds.

111. Contenu statique depuis des domaines sans cookie

Si vous allez chercher du contenu sur un domaine qui essaie d’ipmlanter des cookies, c’est autant de temps de perdu.

112. Compression Gzip

★   ★   ★

La compression Gzip est une compression sans perte. Donc vous ne faites pas un compromis. Par contre, cela permet de réduire considérablement la taille de ce qui transite par les tuyaux, eux aussi pouvant limiter la performance perçue.

113. Supprimer les CSS inutiles

★   ★

Si vous regardez ce qui sert réellement dans les cc, vous verriez que beaucoup de styles sont inutilisés. Si vous avez la possibilité de les éliminer, vous gagnerez du temps !

114. Réduire la taille des CSS

Ici on parle surtout de “minification”, qui a pour but de supprimer les caractères inutiles d’un fichier. Les commentaires, espaces, retours à la ligne inutiles sont supprimés. On peut gagner quelques pour-cents de poids.

115. Réduire la taille du Html

Minifier le html va permettre de gagner quelques millisecondes sur un chargement.

116. Alléger le poids des images

★   ★   ★

Point essentiel, le poids des images : j’aime le png mais il pèse lourd. Réservez-le donc pour les cas où vous avez besoin de transparence. Pour tout le reste un jpeg compressé à 30% (c’est beaucoup soupire le photographe en moi) va considérablement réduire le poids de l’image. Par exemple, j’avais une image en png sur ma home qui pesait 800ko. Après conversion et compression en jpeg, on est à 80ko. Pour l’utilisateur, pas de différence visuelle notable.

117. Images à la bonne taille

★   ★   ★

Si vous voyez une photo qui s’affiche comme à l’époque des modems 56k (les plus vieux comprendront) c’est souvent qu’à la base elle est en pleine résolution et que le navigateur la charge totalement en la redimensionnant à l’arrivée. Très mauvaise solution ! Mettez-les directement à la bonne taille.

118. Une ressource = une seule url

Évitez d’aller chercher un même élément par plusieurs urls différentes. A chaque fois la procédure est refaite intégralement. Méfiez-vous des urls avec seulement un paramètre différent, c’est considéré comme une url totalement différente.

119. Règles CSS précises

Évitez des css trop générales. Soyez spécifiques avec des classes limitées à ce qui sert vraiment.

120. Utiliser du CSS standard

N’ayez pas recours à du CSS non standard, il va aboutir à des erreurs d’affichage.

121. Eviter les CSS inline

Le css inline est contraire à l’idée même de css où tout est regroupé. Sa réinterprétation prend du temps.

122. Eviter les CSS appelé par

Appelez des css par l’intermédiaire de n’est pas efficace.

123. Spécifier les dimensions des images

★   ★

Spécifiez pour chaque image les dimensions auxquelles elle doit être affichée.

124. Spécifier un charset

Indiquez dans le du fichier html le charset utilisé pour ne charger que les bons caractères.

125. Réduire les requêtes http

★   ★   ★

Limitez le recours à des requêtes http superflues.

126. Utiliser un CDN

★   ★   ★

Un CDN (Content Delivery Network) va permettre à votre visiteur de télécharger les ressources statiques (css, js, images, vidéos, etc) depuis des serveurs spécialement conçus pour. C’est plus rapide. Par ailleurs dans le cas de sites internationaux, vous pourrez utiliser des cdn proches de chez lui. Le temps de transfert sera alors plus faible.
En complément de ce qui a été vu avec le domain sharding, voici un test (vu sur : http://andrecheung.wordpress.com/2013/08/03/cdn-and-then-domain-sharding/) :
1er chargement : sans cdn, sans sharding
2ème chargement : avec cdn, sans domain sharding
3ème chargement : avec cdn, avec domain sharding
Evidemment la méthode luxe est optimale, mais le gain (le cas est issu d’un site international) maximal est surtout apporté par le CDN.

127. Permettre la mise en cache d’Ajax

Si vous utilisez des scripts ajax, essayez de les mettre en cache.

128. Requêtes GET pour Ajax

Si vous faites des requêtes en ajax, utilisez préférablement des requêtes GET.

129. Réduire le nombre d’éléments DOM

Limitez les éléments DOM, c’est autant de temps gagné.

130. Utiliser un favicon léger

Détail, certes, mais un favicon léger va permettre un mini gain de temps. Il n’y a pas de petit profit !

131. Mettre en cache le favicon

Pendant que vous en êtes à la mise en cache, mettez-y aussi ce favicon 🙂

132. E-Réputation

★   ★

Google cherche absolument à analyser ce que d’autres pensent de vous. Les backlinks servent à cela, mais il est fort probables que d’autres signaux servent à faire cette évaluations. Parmi ces outils, l’analyse de votre e-réputation doit en faire partie. Surveillez ce qu’on dit de vous et corrigez le tir le cas échéant.
Source : http://moz.com/blog/how-negative-emotion-could-hurt-your-rankings

133. Informations de contact

En e-commerce, c’est déjà une obligation légale. Sortez du bois, dites qui vous êtes, quelle est l’entreprise derrière votre activité. C’est rassurant pour vos visiteurs et probablement perçu comme signal positif par Google.

134. Zéro malware

★   ★   ★

Évidemment des virus sur votre site sont très mal perçus par Google. Il réagit vite et fort. S’il est dans un bon, jour il vous envoie un avertissement dans le Google Webmaster Tools. Quoi qu’il arrive, il vous déclasse. Corrigez le problème et demandez un réexamen. Vos classements doivent revenir à l’identique. Utilisez l’outil Google Safe Browsing (exemple ci-dessous avec le site Google.com) pour analyser votre site. Attention, je ne le trouve pas toujours très cohérent.
Source : http://www.google.com/safebrowsing/diagnostic?site=google.com

135. Formulaires avec politique de confidentialité

★   ★   ★

Je pense que c’est un facteur important car c’est quasi exigé en Adwords. Le contenu des cette politique n’est pas important pour Google, mais sa présence claire l’est.

136. Numéro de téléphone

★   ★

Un numéro de téléphone est rassurant pour le visiteur. Donc pour Google aussi. Par contre n’espérez pas qu’il vous appelle. Il n’a pas le temps. Il gère un zoo plein de pandas, de pingouins, de colibris et même d’orques.

137. Adresse postale connue de Google

Google Maps connaît bien un certain nombre d’adresse, il serait de bon ton que la vôtre y soit aussi.

138. Conditions Générales de Vente

★   ★

Les CGV sont essentielles à la vie d’un site e-commerce et bien souvent elles sont mal conçues. Mais il est préférable d’en avoir.

139. Certificat SSL valide

★   ★   ★

Si vous avez un certificat SSL, assurez-vous de sa validité. Un navigateur comme chrome vous met une page d’avertissement plutôt agressive avant si le certificat “n’est pas sûr”.

140. Taux de clic dans les pages de résultat élevé

Si ce critère de positionnement a bien sa place dans l’algorithme de Google, il doit être très fortement pondéré. Il n’est pas illogique de penser que si le site a tendance à être meilleur en terme de taux de clic dans les pages de résultats, il mérite un peu de remonter. Cela n’a jamais été prouvé mais certaines agences SEO s’en serve pour vendre cela comme la panacée du référencement de site sur internet… Pourquoi peu de poids ? Parce que cela se manipulerait assez facilement par du faux trafic… Optimiser son référencement naturel, oui, mais pas au détriment de l’utilisateur !

141. Marque recherchée

Si le nom de votre site est souvent recherché dans Google même, c’est que vous suscitez l’intérêt. En comparant cela à la moyenne des autres sites du secteur, Google peut en déduire aussi une certaine forme d’attractivité. Aucune technique de référencement ne fera ce travail à votre place. Soyez corrects avec vos clients. Sur le long terme c’est bien mieux !
Pour aller plus loin : http://www.laurentbourrelly.com/blog/827.php (partie notoriété)

142. Autorité du site

★   ★   ★

L’autorité du site (chose qui pourrait être très subjective !) se mesure en SEO par l’éloignement à des sources de référence : sites gouvernementaux ou wikipedia par exemple. Si vous recevez un lien direct de ceux -ci, vous êtes digne de confiance. Si vous recevez un lien d’un site digne de confiance vous devez aussi être relativement digne de confiance. Et ainsi de suite. Plus vous êtes proche des anges, meilleurs vous êtes. C’est la notion de “trust flow”.
Image ci-dessous prise chez : http://www.ya-graphic.com/2013/07/6-indicateurs-de-qualite-dun-site-web-pour-le-seo/

143. Rebond (vers les pages de résultats) faible

Votre site apparaît dans une recherche. Oh, joie. Un visiteur clique dessus. Oh, re-joie. Mais il rebondit aussitôt ou presque en utilisant le bouton back de son navigateur puis reclique sur un autre résultat qui cette fois le satisfait durablement. Si c’est un comportement isolé, peu importe. Si c’est quasi systématique, la page de votre site doit faire peur. Et c’est mal ! L’urgence ? Rebosser la chose, parce que si ces rebonds ont un impact modeste pour améliorer le référencement de son site, ils doivent faire mal au taux de conversion !

144. Trafic direct important par Chrome

Chrome occupe une place assez spéciale dans le marché des navigateurs web. Il est fourni par Google qui est aussi un moteur de recherche… Et de l’aveu même d’un ancien employé, Google se sert – anonymement – des données de navigation pour l’aider. Donc un accès direct à votre site est aussi un énorme signal de satisfaction.
Source : http://www.siliconbeachtraining.co.uk/blog/ex-google-employee-brighton-seo
Source sur la part de Chrome dans les navigateurs : http://gs.statcounter.com/#browser-FR-monthly-201306-201405-bar

145. Visites renouvelées sur Chrome

★   ★

Un visiteur qui revient est probablement un visiteur satisfait (ou amnésique, mais laissons ce cas de côté). Donc avec Chrome, il est aisé de surveiller ce genre de visite.

146. Bookmark du site dans Chrome

★   ★

En général, les visiteurs mettent en favori les sites qui présentent un intérêt. Donc avec Chrome, Google peut aussi traquer ce genre de comportement.

147. Durée de visite avant une nouvelle recherche

Si Google vous envoie un visiteur et qu’il ne revoit pas pendant longtemps, c’est que vous avez su l’intéresser.

148. Stabilité du serveur

★   ★

Un serveur instable présente un risque d’instaisfaction pour Google. Si une courte panne ponctuelle n’aura pas de conséquence, une fréquence excessive de panne sera un mauvais signal.

149. Comportement visiteur on site

Avec Chrome, on l’a vu, Google fait déjà beaucoup de choses… Il peut aussi suivre le comportement complet d’un visiteur sur son site… Donc bosser l’expérience utilisateur et vous aiderez (un peu) votre référencement sur Google.

150. Like et partages sur Facebook

Beaucoup de référenceurs pensent que Facebook émet de des signaux sociaux utiles en SEO, mais je fais partie de ceux qui pensent que ce n’est pas le cas. Google se méfie de Facebook, qui pourrait très bien, un jour, décider de ne plus fournir les indications telles ques les likes. Ce qui déséquilibrerait les classements sans que Google l’ait vraiment choisi. Donc si ce critère a un impact, il n’est que mineur.

151. Partages sur Twitter

Twitter, le réseau social que je préfère parce qu’il n’est pas exactement social, présente les mêmes risques que Facebook et je dois aboutir à la même conclusion : peu ou pas utile.

152. Association avec une page Google+

★   ★

Associez votre site à Google+ et faites vivre un peu cette page. C’est Google+ donc c’est forcément utile en référencement sur moteur de recherche.

153. Attribution à un auteur (Authorship)

★   ★   ★

Le facteur qui monte en puissance avec le (pseudo) avènement de Google+. Google veut nous le vendre son réseau social et il pousse toutes les portes possibles. L’authorship consiste à attribuer un contenu à un profil Google+. C’est bon dans les pages de résultats de recherche (vous avez votre tête) et c’est 100% conforme à l’idée que se fait Google de votre vie privée : c’est encore mieux quand elle est totalement publique. Toute considération philosophique à part, c’est le critère qui va peser lourd par la suite.

154. +1 et partages de Google+

★   ★   ★

Les +1 et autres partages sont un critère qui va peser de plus en plus lourd vu le succès (discutable mais réel) du réseau social fait-pour-tout-savoir-de-votre-vie-privée-et-vous-envoyer-de-la-pub-ciblée-en-masse.

155. Mentions sur les sites d’actualités

★   ★

Si on parle de vous dans l’actualité, c’est que vous êtes intéressant ! (C’est bien un raisonnement de moteur de recherche américain)

156. Age du domaine

Recevez des liens depuis des domaines âgés sur leur thématique.

157. Backlink image : balise alt renseignée

Si une image vous fait un lien, l’idéal est qu’elle soit accompagnée d’une balise alt renseignée avec une phrase, pas juste une suite de mots clés. Si cette phrase contient des expressions clés, c’est encore mieux !

158. PageRank de la page

★   ★   ★

Le St Graal du référenceur, le PageRank d’une page vous faisant un lien. Ce fameux PageRank mesure la popularité de la page (de manière imparfaite), mais s’il est élevé (non nul sera déjà pas mal), le backlink aura un poids nettement plus élevé.

159. PageRank du domaine

Si le PageRank de la page est un facteur important, celui du domaine l’est aussi, mais dans une moindre mesure. Le cas extrême étant un lien depuis une page non indexée sur un site PR10. Ne vous laissez pas impressionner par le PR d’un site, celui de la page qui envoie le lien est autrement plus considérable.

160. Backlinks de la page émettrice

Si la page qui vous envoie un backlink en reçoit elle aussi, c’est autant de “jus” que vous récupérez. C’est d’ailleurs une technique souvent utilisée en black hat, qui consiste à poser ses liens et les pousser par d’autres liens, souvent de qualité très basse.

161. Autorité du site

★   ★   ★

L’autorité d’un site va aussi beaucoup vous aider, surtout si vous êtes de la bonne thématique. Si vous arriviez à obtenir un lien vers votre site de défiscalisation depuis le site des impôts du gouvernement, on pourrait dire que oui, c’est assez utile !

162. Signaux sociaux sur la page

Le signal social tendant à devenir un complément de backlink (essentiellement Google+ d’ailleurs), c’est toujours bon de recevoir des liens depuis des pages ayant ce genre de gratifications.

163. Langue identique

★   ★

Un bon lien proviendra idéalement d’un site de la même langue. Si le site est exactement dans la même thématique, ce point est moins important.

164. Postion du backlink

★   ★   ★

Partant du principe qu’un internaute lambda (principe du “reasonable surfer”) cliquera plus facilement sur un lien au dessus de la ligne de flottaison, Google semble attribuer un poids plus élevé aux liens qui répondent à ce critère.
Sources : 
http://www.seohaus.com/blog/20-link-attributes-based-on-googles-reasonable-surfer-model/
http://ilpubs.stanford.edu:8090/422/

165. Page thématisée

★   ★   ★

Essentiel depuis la mise à jour Pingouin. Un lien depuis un site qui n’a rien à voir avec le sujet sera suspect. Évidemment, c’est l’accumulation qui rend les choses détectables.

166. Site thématisé

★   ★

La plupart des sites ont une thématique assez précise (contre exemple : Wikipedia, Google, etc). Si la page qui vous envoie le lien n’est pas totalement adaptée à votre thématique mais que par ailleurs le site lui correspond, cela restera positif.

167. Backlinks contextualisés

★   ★

Ici je pense au fait qu’un lien au sein d’un texte sera plus utile qu’un lien qui traînerait ailleurs sur la page.
Pour aller plus loin, un cas intéressant de levée de pénalité avec analyse de la qualité des liens : http://www.eskimoz.fr/levee-de-penalite-google-pingouin-retour-dexperience/

168. Citations du site

La citation est un peu un lien du pauvre, pire encore qu’un nofollow. Mais c’est aussi une façon de montrer qu’on parle de vous, que des webmaster veulent faire connaître votre site internet, donc c’est un mini signal positif.
Un bon article sur le sujet (dont j’ai repris ci-dessous l’image) : http://www.iceranking.com/Google/l-optimisation-des-backlinks-et-des-citations-structurees-de-votre-page-google-plus-local/

169. Présence de mots clés dans la page

★   ★

Si vous visez certains mots clés, l’idéal est que les pages vous faisant un lien comporte ces mots clés ou variantes proches. C’est la raison pour laquelle certains spams de commentaires sont très longs, pour donner une thématique, un contexte et placer des mots clés.

170. Page avec d’autres liens vers des sites pertinents

★   ★

C’est une notion parfois difficile à argumenter face à un client : mettre dans son contenu des liens vers des sources pertinentes est un plus. Mais ces sources sont souvent des concurrents. Les blogueurs SEO on depuis longtemps intégré cette technique, mais les autres secteurs ont parfois quelques (compréhensibles) réticences difficile à vaincre pour une société de référencement…

171. E-réputation du site

Probablement pris en compte d’une manière ou d’une autre par Google mais probablement d’une manière plus limitée.

172. Backlinks non réciproques

★   ★

L’échange de liens a longtemps été d’une efficacité rare mais Google a mis ce genre de pratique à l’index. Faites le de manière à ce que le site qui vous envoie un lien n’en reçoivent du vôtre. Surtout si c’est des (vilains) liens en pied de page.

173. Nombre de liens sortants d’une page

★   ★

Moins il y en a mieux c’est, le “jus” étant en fait divisé par autant de liens qu’il peut y avoir sur la page (nofollow compris).

174. Mot clé dans l’ancre

★   ★   ★

Une vraie contradiction chez Google : d’un côté il dit qu’il serait de bon ton que les ancres de liens soient descriptives, de l’autre, il se fâche pour une sur-optimisation. Donc faites quelques ancres optimisées (mais aussi d’autres plus génériques, comme le nom de domaine) et variez-les !

175. Nombre de backlinks

★   ★

Plus vous avez de pages vous faisant un lien, mieux c’est. Mais d’autres facteurs sont à prendre en compte.

176. Nombre de domaines

★   ★   ★

A mes yeux, cette mesure est bien plus pertinente que le nombre de pages faisant un lien. En effet, mieux vaut 100 domaines vous faisant un lien qu’un seul domaine vous en envoyant 100. (note : j’ai l’impression de paraphraser Émile dans la Cité de la Peur). C’est là que je constate parfois des manques dans des devis SEO d’agences de référencement pas toujours très motivées pour s’attaquer au netlinking…
Source : http://www.seomoz.org/blog/guide-to-competitive-backlink-analysis

177. Nombre d’IP

Si vous recevez tous vos liens depuis un nombre réduit d’IP (surtout vis à vis d’un ratio IP vs noms de domaines), c’est assez suspect car probablement la signature d’une campagne de netlinking. La variété étant de mise pour voler sous les radars, plus d’IP c’est plus de crédibilité. (Mon côté Grey Hat ressort parfois)

178. Nombre de classes C

Avoir des backlinks de différentes classes C d’IP permet de laisser penser que ce n’est pas qu’un unique webmaster qui vous fait un lien. Cependant avec la mise en vente de ce genre de service (hébergement multi class C), il est possible de contourner cette difficulté. Bon c’est assez cher (quelques euros par mois par IP plus le serveur, souvent un vps sous dimensionné mais vendu à prix d’or. C’est la magie d’un client captif).

179. Augmentation progressive

★   ★

Encore une fois, Google cherche à mesurer ce qui est naturel de ce qui ne l’est pas (ils appellent cela le spam… C’est assez discutable de mon point de vue). La vraie difficulté à laquelle Google est confronté est de voir ce qui relève d’un buzz de ce qui est une campagne de netlinking aggressive et ponctuelle. Le but du jeu est de construire un profil de lien sur la durée, sans tout mettre en oeuvre dès le départ.

180. Augmentation durable

★   ★   ★

Obtenir des backlinks au lancement d’un site c’est bon pour votre visibilité sur Google. Mais quid de la suite ? Comment interpréter le fait que vous n’avez plus de nouveau lien ? L’explication la plus logique est que vous n’intéressez plus personne. Ou que vous ne faites plus de netlinking. Dans un cas comme dans l’autre, Google voit cela comme un signal négatif.

181. Backlinks nofollow et dofollow

★   ★

La discussion sur ce sujet est assez animée. Y a-t-il besoin de liens nofollow dans un profil de liens ? Oui, selon moi, mais non, selon un autre agence SEO qui aura aussi de bons arguments. Je pense que si le profil est déjà douteux (que des wordpress ou ancres très optimisées…), pas de nofollow va contribuer à allumer un signal dans l’algo. Donc si vous voulez prendre moins de risques, jouez aussi la carte du nofollow. Je suggère quelques commentaires intelligents sur des blogs dans votre thématique.
Source : http://www.seomix.fr/google-penguin-liens/ (un test très intéressant sur des sites pénalisés ou non par Pingouin !)

182. Sites de tailles différentes

Petit critère à mes yeux, mais recevoir des liens de sites de différente taille (que ce soit basé sur le PR ou le nombre de page) doit aider.

183. Sources variées

★   ★   ★

Votre priorité depuis “The Evil Penguin”. Il faut obtenir des liens de sources différentes : annuaires, blogs, forums, citations, etc. C’est la mise en place d’un schéma d’acquisition de lien répétitif qui vous rend suspect. J’ai lu récemment un bon résumé de la chose : un bon lien est un que vous n’êtes pas sûr d’obtenir.
Source : http://www.referencement-naturel-white-hat.fr/empreintes-et-detection/

184. Variété des types d’ancres

On peut penser qu’avoir des liens qui soit aussi sous forme d’image puisse être interprété comme plus naturel. Possible mais peu de poids vraisemblablement.

185. Proportion d’ancre avec le nom du site

Si aucun de vos lien n’intègre le nom de votre site, n’est-ce pas un peu suspect ? (être suspect en SEO, c’est s’écarter un peu trop d’une moyenne)

186. Longueurs des ancres

Des ancres très longues ne sont pas normales. Une de temps à autre passera, mais si vous ancrez tout le temps sur des phrases très longues, c’est assez déroutant. A mes yeux, ce critère doit peser très peu (voire rien du tout !)

187. Textes d’ancres variés

★   ★   ★

Quad je veux voir si un site présente un risque de pénalisation, je regarde la répartition de ses ancres de liens. Trop ciblé = trop risqué. Variez, utilisez la sémantique, des synonymes, des variantes.
Ci-dessous un exemple avec un site trop optimisé 40% d’ancres quasi identiques

188. Achat de liens

L’achat de liens est clairement une faute aux yeux de Google (qui avoue là l’importance des liens). Maintenant, il faut relativiser. La preuve et la détection sont souvent très difficile à obtenir. Donc si vous le faites, faites le discrètement, en traitant directement avec les webmasters (et évitez les mentions indiquant que l’article est sponsorisé).
Source : http://searchenginewatch.com/article/2318619/Matt-Cutts-Google-Penalties-Get-More-Severe-for-Repeat-Offenders

189. Usage massif de liens d’affiliation

L’affiliation c’est le fait de promouvoir le produit de quelqu’un d’autre pour toucher une commission sur la vente (grossièrement). Le problème de fond est que l’objectivité n’est plus de mise, ce qui nuit à la qualité du contenu. Un peu d’affiliation ne vous nuira pas mais un site qui n’aurait que de l’affiliation sans réel contenu sera pénalisable par un audit manuel de Google (rare mais – hélas – efficace).
Source : page 40 du quality rater guide

190. Contenu caché par css hidden

Vous pouvez utiliser le css hidden si vous le faites pour de bonnes raisons (comprendre pour les visiteurs et pas pour référencer son site). Si vous abusez vraiment (disons totalement intentionnellement 🙂 c’est dangereux

191. Cloaking

Le cloaking consiste à envoyer aux moteurs une page différente de celle vue par un visiteur. Le principe consiste à détecter le googlebot et subsituer la page normale par celle optimisée. On peut le faire par le user agent (dangereux) ou par IP (sous réserve de tenir à jour les Ips du bot…). Si on vous propose cela comme prestation de référencement naturel, comprenez les implications : blacklistage possible.

192. Vente de liens

Nouveauté 2014 (correctif suite commentaire : 2012 serait déjà concernée) Google vous pénalise pour liens sortants non naturels. En France, par exemple le site webmasterank.info (forum SEO de qualité) a été sévèrement sanctionné pour ce motif. Le webmaster a mis en nofollow certains liens (pas tous, bravo pour son courage) en a regroupé d’autres en pied de page et a fait une demande de réexamen, acceptée. Le site est revenu, mais je pense que l’expérience doit avoir un côté effrayant !

193. Meta refresh agressif

Une des premières techniques utilisées pour pratiquer des “redirections trompeuses” (ce sont les termes de Google). Donc Google a depuis longtemps mis en place des méthodes de détection. A éviter donc.

194. Keyword stuffing

La fameux “Keyword Stuffing” ou bourrage de mots clés. Trop de répétitions qui se traduisent pas une densité excessive et c’est du spam.
Source : page 34 du quality rater guide

195. Sites satellites

Des sites conçus pour pousser le “money site”. Sans valeur ajoutée, juste celle de faire de bons liens. Google n’aime pas. Mais c’est efficace. A utiliser de façon maîtrisée et limitée.

196. Pages peu différentes en masse

Les fameuses “Doorway Pages”, des pages très optimisées pour une expression clé, mais assez peu différentes d’une page à l’autre. Le cas classique d’une entrprises qui intervient dans différentes villes et qui crée une page par ville. Pour éviter cet écueil, enrichissez les pages pour les différencier les unes des autres. Par exemple, donnez des infos sur la ville, ajoutez quelques images, etc.
Source : page 37 du quality rater guide

197. Autoblogs, autoforums…

Ce qui est automatique déplaît à Google. Si vous créez des autoforums ou autoblogs, vous le savez. Soyez subtils, c’est encore jouable. Mais vous ne serez jamais à l’abri d’une dénonciation… Encouragée par Google (cf t-shirt de Matt Cutts – beurk !)

198. Noms de domaines ou urls à rallonge

Oui, mettre des mots clés dans une url ou un domaine aide. Mais si vous allez à l’excès, c’est non. Petite remarque : un nom de domaine trop long vous emp^chera de faire de l’adwords… Car il faut citer le domaine et il n’y a que 35 caractères. Je vous vois déjà sourire, mais c’est arrivé à un client white hat qui s’était un peu lâché sur son nom de domaine.

199. Texte invisible

Comme le hidden CSS, mais en plus basique : du blanc sur fond blanc. A oublier. Archi usé et détectable.

200. Spam de backlinks

L’outil numéro 1 du black hat est évidemment chassé par Google. Vous pouvez le faire mais sachez les risques que vous prenez (blacklistage essentiellement)

201. Liens sortants cachés

Rendre à un lien une apparence de lien normal est suspect. A moins d’avoir une très bonne raison (et je ne vois pas laquelle hormis grey/black hat), évitez. D’ailleurs c’est à peu près contre toutes les recommandations en matière d’ergonomie web.

202. Frame à 100%

J’ai déjà déconseillé les structures à base de frames, mais si en plus vous jouez avec le système, à savoir deux frames dont une à 100% (donc la seule que le visiteur verra mais Google visitant les deux), vous trichez. Risqué car un peu trop facile. Sans compter que c’est obsolète technologiquement.
Source : page 36 du quality rater guide