Concours Seo 2013 : Chapitre 3 – Conclusions Statistiques

Le concours de référencement 2013 c’est terminé le 30 novembre à minuit, après 2 mois et demi de bataille féroce dans les search engine result pages, nous avons pu découvrir le classement final et remettre les lots aux vainqueurs. Ce concours aura été plein de rebondissements, et nous allons voir un peu plus en détail les mouvements et événements de ce concours. Cela avec un peu de recul, quasiment un mois après la fin du concours, pour conclure avec ce dernier billet d’analyse. Comme pour le chapitre 2 , nous allons analyser les 20 premiers du concours, sur la dimension on-site et off-site, je vais ajouter aussi quelques nouveaux chiffres pour approfondir un peu les réflexions, et enfin je parlerais de quelques événements généraux qui ont touché le concours sur sa globalité, les réactions suspectes de google, le page rank ou encore certains parcours originaux.

Le classement final

Sans plus attendre je vous présente le classement final du 30 novembre 2013 (minuit), dernier bien connu de ceux qui fréquentent le forum seo mais peu être moins connu des autres, alors le voici :

– 1er       :  Madinseo.fr
– 2ème   :  Zandit.fr
– 3ème   :  Smni.fr
– 4ème   :  Sopro.fr
– 5ème   :  Etilemullog.com
– 6ème   :  Takatoucliquer.fr
– 7ème   :  Gollumelite2013.tumblr.com
– 8ème   :  Gollumelite1.tumblr.com
– 9ème   :  Facebook.com/gollumelite
– 10ème :  Expertspam.com

Nous retrouvons les meilleurs référenceurs de ce concours, tous dotés de styles et de techniques variés, chacun a  su se faire une place dans le top 10 avec classe, persévérance et stratégie.

Avant tout, j’adresse mes félicitations à tous pour ce beau concours, ce fut pour moi un réel plaisir de suivre l’évolution de chacun ainsi que d’analyser les stratégies employées. Faisons maintenant place aux analyses et conclusions pour mettre nos efforts en évidence et en retirer des avantages scientifiques.

Chapitre 3 : Conclusions Statistiques (6 dernière semaines + 4 semaines)

L’aspect {Master-Site|On-site|Contenu}

Pour cette partie analytique j’ai laissé passer 4 semaines avant de faire un relevé d’informations, afin d’avoir un peu de recul sur les différentes stratégies et sur leur tenue respective dans la durée.

Classement et analyse on-site des 20 premiers ndd le samedi 28 décembre 2013 (15H30)

  1. zandit.fr/ enregistré après le 14 septembre 38 pages indexées (wordpress)
  2. madinseo.fr/enregistré après le 14 septembre 146 pages indexées (wordpress)
  3. etilemullog.com/ enregistré après le 14 septembre 77 pages indexées (pluxml)
  4. expertspam.com/ enregistré après le 14 septembre 13 pages indexées (wordpress)
  5. smni.fr/ enregistré après le 14 septembre 15 pages indexées (wordpress)
  6. takatoucliquer.fr/enregistré après le 14 septembre 152 pages indexées (wordpress)
  7. tumblr.com/‎ enregistré avant  100 000k pages indexées (tumblr)
  8. tumblr.com/enregistré avant 100 000k pages indexées (tumblr)
  9. gollumelite.com/ enregistré après mais invalide 7 pages indexées (wordpress)
  10. ghstools.fr/ enregistré après le 14 septembre 44 pages indexées (solution)
  11. wordpress.com/‎ ‎ enregistré avant 25 pages indexées (wordpress)
  12. univ-bh.com/enregistré avant 36 pages indexées (wordpress)
  13. agence-presse.net/ enregistré avant 532k pages indexées (wordpress)
  14. facebook.com/ enregistré avant 550 000k pages indexées (solution)
  15. facebook.com/ enregistré avant 550 000k pages indexées (solution)
  16. tumblr.com/ enregistré avant 100 000k pages indexées (wordpress)
  17. seocba.fr/enregistré après le 14 septembre 8 pages indexées (wordpress)
  18. wordpresss.com/ enregistré avant 42 pages indexées (wordpress)
  19. gouv.fr/ enregistré avant 4 970k pages indexées (solution)
  20. youtube.com/ enregistré avant 492 000k pages indexées (solution)

Nous retrouvons en tête notre favori {B|Z}andit avec faible total de pages indexées, et n’ayant pas changé de solution web, son nom de domaine est encore porteur d’un wordpress, avec un thème assez bien élaboré. Un rythme de publication modéré avec environ 1 article tous les 2 jours depuis le début du concours. Le thème est assez personnalisé et/ou élaboré, ce qui reflète une certaine qualité technique onsite.

En deuxième position, celui qui fut premier au moment de la fin du concours, dispose d’un nombre de page indexées plus conséquent, une présence donc plus massive mais moins qualitative,  quand on se penche sur les articles nous  remarquons des articles scrapés dotés d’injection de mots clef. Nous pouvons remarquer un thème de base wordpress, peu élaboré.

En 3ème position nous remarquons un blog avec plusieurs dizaines de pages indexées, et peut être une des rédactions les plus qualitative, avec des articles intéressants, d’analyse sur le concours, que j’ai personnellement prit plaisir à découvrir, le tout publié sur du pluxml, la solution sans base de données connue pour sa légèreté, dernière qui à été l’objet d’un certain travail d’adaptation pour l’occasion.

Sur la 4eme place nous pouvons découvrir un expert, avec seulement 5 publications, un très faible nombre de pages indexées, le tout déployé sur un wordpress, thème très basique, peu optimisé, en clair notre expert spam ne mise pas sur le contenu, mais plutôt sur le spam, quoi de plus logique ?

Notre 5eme participant propose un site assez simple, avec une seule page sur le sujet du concours, page bien fournie qui contient de nombreuses références populaires, une vidéo, du contenu plutôt classique sur le sujet, mais notons surtout une énorme quantité de liens sortants vers différentes pages wikipédia.

Pour ce qui est des autres participants, nous remarquons une dominance de blog wordpress, chacun dotés de quelques articles sur le sujets, nous remarquons aussi de nombreux profils sociaux, contenant tous un peu de contenu autour du mot clef du concours ainsi que des interactions sociales plus ou moins artificielles.

L’approfondissement {Master-Site|On-site|Contenu}

Afin de poursuivre l’analyse on-site des 20 premiers participants je vous laisse découvrir un second tableau avec des rapports d’analyse (audit) on-site, les notes ainsi qu’un lien vers les audits en détail.

1) Zandit.fr/ : 78,3/100  Rapport Complet
2) Madeinseo.fr/ : 66,3/100 Rapport Complet
3) Etilemullog.fr/ : 71,5/100 Rapport Complet
4) Expertspam.com/ :  75,9/100 Rapport Complet 
5) Smni.fr/ : 70,7/100 Rapport Complet
6) Takatoucliquer.fr/ : 62,9/100 Rapport Complet 
7) Gollumelite1.tumblr.com/ : 63,9/100 Rapport Complet
8) Gollumelite2013.tumblr.com/ : 63/100 Rapport Complet
9) Gollumelite.com/ :  72,9/100 Rapport Complet
10) Ghstools.fr/ Erreur l’outil d’audit ne fonctionne pas
11) Gollumelite.wordpress.com/ : 66,6/100 Rapport Complet
12) Univ-bh.com/ : 75/100 Rapport Complet 
13) Gollumelite.agence-presse.net/ : 71,8/100 Rapport Complet
14) Facebook.com/pages/Gollumelite-Officiel/ Erreur l’outil d’audit ne fonctionne pas
15) Facebook.com/gollumelite.fr/ Erreur l’outil d’audit ne fonctionne pas
16) Dromardennesgollumelite.tumblr.com/ : 54,3/100 Rapport Complet
17) Seocba.fr/ : 75,3/100 Rapport Complet
18) Gollumelitegay.wordpress.com/ : 65,9/100 Rapport Complet
19)  Data.gouv.fr/Com…/Gollumelite : 66,8%/100 Rapport Complet 
20) Youtube.com/watch?v=xWony22pEFE : 68,3/100 Rapport Complet  

 

Nous pouvons remarquer différent niveau d’optimisation on-site, pour chacun des concurrents, à noter cependant que pour avoir des données un minimum fiable il est recommandé de recouper plusieurs outils d’analyses statistiques de ce genre. Ici je propose un balayage rapide pour approfondir l’analyse on-site, dans un but d’analyse générale.

 

L’aspect {Net-linking|Link-Building|Off-site}

 

Classement et analyse off-site des 20 premiers ndd le samedi 28 décembre 2013 (15H30)

  1. zandit.fr/                      Url Rank : 74 | Dom Rank : 59    | BL: 5.8 K     |  Ref Dom 1.3 K
  2. madinseo.fr/‎                Url Rank : 81 | Dom Rank : 48    | BL: 81 K       |  Ref Dom 3.5 K
  3. etilemullog.com/         Url Rank : 10 | Dom Rank : 50    | BL: 3.3 K     |  Ref Dom 117
  4. expertspam.com/        Url Rank : 17 | Dom Rank : 45     | BL: 23          |  Ref Dom 13
  5. smni.fr/                         Url Rank : 17 | Dom Rank : 52     | BL: 5.9 K     |  Ref Dom 275
  6. takatoucliquer.fr/       Url Rank : 13 | Dom Rank : 45    | BL: 8.5 K     |  Ref Dom 303
  7. **.tumblr.com/            Url Rank : 35 | Dom Rank : 42    | BL: 463        |  Ref Dom 135
  8. **.tumblr.com/            Url Rank : 32 | Dom Rank : 42    | BL: 347        |  Ref Dom 35
  9. gollumelite.com/         Url Rank : 14 | Dom Rank : 40    | BL: 110         |  Ref Dom 13
  10. ghstools.fr/                   Url Rank : 13 | Dom Rank : 47    | BL: 161 K      |  Ref Dom 294
  11. **.wordpress.com/‎     Url Rank : 20 | Dom Rank : 41    | BL: 63           |  Ref Dom 19
  12. univ-bh.com/‎               Url Rank : 29 | Dom Rank : 41    | BL: 4.4 K      |  Ref Dom 104
  13. agence-presse.net/** Url Rank : 29 | Dom Rank : 63    | BL: 1.5 K      |  Ref Dom 145
  14. facebook.com/**         Url Rank : |  Dom Rank : 0       | BL: 0             |  Ref Dom 0
  15. facebook.com/**         Url Rank : 26 | Dom Rank : 100  | BL: 293        |  Ref Dom 49
  16. **.tumblr.com/           Url Rank : 55  | Dom Rank : 51     | BL: 6.1 K      |  Ref Dom 882
  17. seocba.fr/                     Url Rank : 13  | Dom Rank : 44     | BL: 23          |  Ref Dom 6
  18. **.wordpresss.com/   Url Rank : 14 | Dom Rank : 21      | BL: 2.2 K     |  Ref Dom 52
  19. **.gouv.fr/**                Url Rank : 0  | Dom Rank : 0         | BL: 0            |  Ref Dom 0
  20. youtube.com/**           Url Rank : | Dom Rank : 0        | BL: 0             |  Ref Dom 0

Notre premier, Ninja linker d’exception, Black {B|Z}andit, nous offre une belle quantité de backlinks, mais ce qui est surtout notable si l’on consulte son profil de backlinks en détail, c’est la qualité des cibles sur lesquelles il à posé ses liens. Nous remarquons des backlinks sur des sites d’une autorité inégalée, personne sur le concours n’a su poser des liens si forts d’autorité, hormis ceux qui l’ont suivi bien sûr ! Nous remarquons un ratio de backlinks / ref dom qui a été dilué sur par rapport aux 4 premières semaines de concours, et bien évidement quelques backlinks de masses ont été générés durant le rush final, cependant, ces mêmes backlinks probablement automatisés sont eux aussi d’une qualité assez remarquables. Pour moi zandit restera le meilleur ninja linker de ce concours, et de très très loin.

Notre second madinseo, est lui aussi force de proposition (de backlinks) un référenceur qui ne fait pas dans la dentelle, bien au contraire, c’est le volume de liens qui aura été la plus grosse carte abattue par ce participant. Cela lui aura valu une pénalité en début de concours, mais il a finalement réussi à reprendre les premières places, à la tête de plusieurs dizaines de milliers de liens. Ce participant a su finir premier dans le timing du concours, même si dans la durée c’est plutôt la seconde place qui lui a collé à la peau.

Notre 3eme aujourd’hui (5ème au jour J) est le joueur de mot etilemullog qui a trouvé un équilibre raisonnable entre backlinks manuels et automatiques. Nous avons remarqué une sorte de mimétisme sur zandit, avec beaucoup de liens de notre favori qui ont été exploités en second temps, mais aussi une génération de backlinks à la fois qualitative  mais aussi quantitative sur la durée. Ce ndd à montré une belle ascension au rythme des derniers jours du concours.

Le 4eme aujourd’hui, un mois après la fin du concours est un expert, l’expert spam de notre concours, et bien évidement il a prit soin de cacher ses backlinks de masse (entre nous il y a de quoi quand on observe la qualité des liens) ainsi sur mon tableau (ci dessus) on ne voit apparaitre que très peu de backlinks, mais je vous laisse le soin de regarde sur ahref la redirection qui dissimule la partie caché de l’iceberg, un spam massif qui explique en grande partie le positionnement de ce participant, étant donné la faible quantité de contenu qu’il a publié sur son site. Il sera intéressant de voir si ce site supporte le prochain passage de penguin. Notez que ce participant a volontairement partagé sa stratégie plus en détail sur le forum seo (accès lvl 1 minimum = inscrit + présentation).

Notre 5ème au classement de ce jour est un spécialiste du network en herbe, un référenceur que nous connaissons bien, qui lui non plus ne fait pas dans la dentelle. Il est celui qui à reçu les redirection du précédemment bien connu devenir-bh, doté lui même d’un spam très massif et pas moins puissant. Il sera intéressant de voir si ce site supporte le prochain passage de penguin. Notez que ce participant a volontairement partagé sa stratégie plus en détail sur le forum seo (accès lvl 1 minimum = inscrit + présentation).

Pour résumer la situation sur les 15 autres participants, nous remarquons globalement des quantités de backlinks allant de plusieurs centaines à plusieurs milliers de liens pour généralement entre 1/3eme et 1/6eme de refering domains. Notez aussi que plusieurs compte facebook se sont positionnés sans aucun backlink direct vers les pages concernée.

 

Conclusion du chapitre

Ce chapitre qui arrive 1 mois après la fin du concours permet de mettre en évidence clairement les stratégies qui ont fonctionnées et celle qui sont moins puissantes. Je remarque surtout l’éfficacité du net-linking, sans forcement négliger le on-site. Ceux qui ont su se démarquer n’ont pas négligé le contenu, qu’il soit massif ou qualitatif peu importe, il en a fallu des articles pour sortir du lot. Avec notre expert spam qui pourrait représenter une exception, 5 articles (pauvres) et une stratégie presque exclusivement basée sur une 301 + spam massif, pensez vous qu’il soit encore possible de ranker durablement en négligeant totalement le contenu ?

Prenons pour exemple le premier (aujourd’hui et durant 90% du concours) zandit. La meilleure note en matière d’optimisation onsite, le meilleur url rank, le meilleur domain rank, les plus beaux backlinks en termes de trust flow et citation flow, des domaines ciblés de qualité en terme de Page Rank ou d’autorité. Pour ce qui est des quantités de contenu zandit est dans la moyenne, en termes de qualité il nous a fourni des articles pour le moins lisibles et pour le mieux distrayants – amusants. Il a longtemps été celui qui portait le meilleur ratio backlinks-ref dom, autrement dit : un net-linking riche, varié et de qualité. Sa domination sur le concours a été flagrante durant toute la période définie, il est pour moi un beau modèle en terme de stratégie à adopter en référencement : l’équilibre pertinent et crédible, entre contenus et netlinking. Cet exemple prouve  met en nuance le coté facultatif de l’aspect social en influence sur le ranking. Le facteur de ranking social existe t’il réellement ? Ne représente  t’il pas peut être qu’un verrou crédibilisant sur le long terme (et optionnel) ?

Je penses que le concours met aussi en valeur la faiblesse du moteur de recherche sur l’aspect net-linking, en observant les profils ahref des 2 premiers on remarque immédiatement la sensibilité de google coté net-linking, que cela soit qualité ou quantité, si les liens sont dark automatisés (donc massifs) ou savamment posés (donc plus puissants trustés),  ca rank sans trop faire de manière dans les serps. Zandit et Madinseo se sont démarqués durant ce concours, et ils ont représentés, il me semble, les deux puissances du  link-building, respectivement chirurgicale et brute. Est ce que le net-linking chirurgical sera durable en terme de ranking factor contrairement au net-linking brut ?

Ce que j’attends avec impatience c’est le prochain passage de penguin, la seule boué de secours arme de google contre le net-linking dit : abusif. Lorsque l’animal sera passé, nous verrons bien qui tient et qui tombe avec ce genre de stratégie. Ce fameux penguin est la seule nuance qui peux faire pencher la balance en défaveur d’un net-linking soit massif soit poussé en matière de compétence Ninja-Link.

 

Conclusion du concours

Je vais débuter la conclusion du concours avec un phénomène étrange qui c’est produit durant le concours, raison pour laquelle je n’ai pas rédigé de billet de la 4eme semaine jusqu’à présent. Il se trouve que vers le 5ème semaine jusque la 8éme semaine (le concours durait en tout 10 semaines) les serp (pages de résultats) ont été bloquées, plus aucun nom de domaine ne sortaient, les 2 premiers du moment (zandit et takatoukliquer) restaient en premières places et une flopée de 18 facebook tumblr et autres pages youtube meublaient le reste du top 20. Après 3 semaines de blocage les pages ont eu l’air de se débloquer et le concours a continué de nous en apprendre sur l’algorithme de google. Est ce que google est intervenu spécifiquement sur la serp du concours ? Est ce plutôt un blocage mécanique du à l’apparition rapide et massive de nombreuses pages sur un mot clef naissant ?

Au delà de ce premier phénomène étrange, un second phénomène étrange c’est produit, cette fois quand au page rank, nous le savons tous, il y a quelques semaines le page rank à (enfin) été mis à jour. Cependant j’ai remarqué très tôt qu’aucun des sites  du concours n’avait prit de page rank. Enregistrement après le 15 septembre et apparition de nombreux backlinks en tout genre après le 15 septembre pour chacun des noms de domaines concernés. J’en ai donc déduis que cette mis à jour était « réchauffée » et assez vite d’autres ont partagés mon avis sur le forum et ailleurs. Pourquoi google nous livre une mise à jour du Page Rank périmée ? Une latence stratégique ?

Pour conclure définitivement, j’ai vraiment apprécié le spectacle technique, chaque participant a montré, comme je l’ai dit précédemment, un style original, des stratégies innovantes, cela fut très rafraîchissant scientifiquement et j’ai pris un grand plaisir dans le travail analytique que j’ai entrepris pour faire honneur à ces participations. Je tiens donc à formuler encore une fois mes remerciements les plus sincères à chacun, et je vous donne rendez vous en 2014 pour une nouvelle autopsie collective de notre Search Engine préféré .

Le message est simple, vous pouvez choisir de suivre les vidéos de Matts Cutts (un agent communication) et lui faire confiance aveuglément, sinon vous pouvez préférer rejoindre la première communauté black hat, grey hat et white hat (seo complet pour résumer) de France et poursuivre les recherches concrètes, seule voie pour décrypter de manière tangible les fonctionnements du moteur de recherche le plus riche du monde.

Jaffaar

Concours Seo 2013 : Chapitre 2 – Vision Métrique Globale

Un concours seo se déroule dans les pages des moteurs de recherche depuis maintenant un peu plus d’un mois. Après 2 semaines de concours j’ai écrit « contact analytique primaire« , le chapitre 1 de mon analyse (biopsie) de la search engine résult page élue. Aujourd’hui je vais donc rédiger le chapitre 2 intitulé : « vision métrique globale« . Dans ce concours, nous sommes nombreux à suivre  les moindres mouvements des noms de domaines classés dans les pages des résultats de recherches, à l’affut du moindre constat empirique à déceler. Pour le premier chapitre j’avais porté l’analyse sur les dix premiers résultats du classement, pour cette seconde analyse je vais élargir le constat aux vingt premiers.

 

Chapitre 2 : Vision Métrique Globale (4 premières semaines)

 

L’aspect {Master-Site|On-site|Contenu}

Comme pour le précédent chapitre nous allons observer les noms de domaines dans leur dimension on-site, les vingt premiers cette fois ci, par contre. Je précise que, par « on-site » j’entends toute la partie web applicative raccordée aux noms de domaines prévus pour ranker et transformer dans un cas client concret. Je vais donc procéder à un check technique et onsite des 20 premiers résultats qui sortent dans le SERP.

Classement et analyse on-site des 20 premier ndd le samedi 19 Octobre 2013 (15H30)

  1. zandit.fr/ enregistré après le 14 septembre 22 pages indexées (wordpress)
  2. takatoucliquer.fr/ enregistré après le 14 septembre 87 pages indexées (wordpress)
  3. devenir-bh.com/ enregistré avant 21,900 pages indexées (wordpress)
  4. twitter.com/ enregistré avant 143 000k pages indexées (solution propriétaire)
  5. univ-bh.com/ enregistré avant 44 pages indexées (wordpress)
  6. tumblr.com/enregistré avant 86 600K pages indexées (solution propriétaire)
  7. tumblr.com/‎ enregistré avant 86 600K pages indexées (solution propriétaire)
  8. facebook.com/ enregistré avant 791 000K pages indexées (solution propriétaire)
  9. facebook.com/ enregistré avant 791 000K pages indexées (solution propriétaire)
  10. doyoubuzz.com/ enregistré avant 2 010K pages indexées (solution propriétaire)
  11.  facebook.com/  enregistré avant 791 000K pages indexées (solution propriétaire)
  12.  facebook.com/  enregistré avant 791 000K pages indexées (solution propriétaire)
  13.  univ-src.fr/ enregistré avant 99 pages indexées (wordpress)
  14.  data.gouv.fr/ enregistré avant 11 300K pages indexées (solution propriétaire)
  15.  travail-emploi.com/ enregistré avant 805K pages indexées (solution propriétaire)
  16.  inagist.com/ enregistré avant 5 960K pages indexées (phpBB)
  17.  veille-duweb.fr/ enregistré avant 295 pages indexées (wordpress)
  18.  gazetaprawna.pl/ enregistré avant 2 740K pages indexées (phpBB)
  19. youtube.com/ enregistré avant 471 00K pages indexées (solution propriétaire)
  20. ax6.fr/‎ enregistré avant 35K pages indexées (wordpress)

Nous retrouvons en tête de classement notre favoris {B|Z}andit avec comme la précédente le nom de domaine qui compte le moins de pages indexées, et n’ayant pas changé de solution web , son nom de domaine est toujours illustré d’un wordpress. Un rythme de publication modéré mais soutenu, avec depuis le début du concours environ 1 article tous les 2 jours.

Nous découvrons un deuxième (dans les deux sens) participant avec un nom de domaine valide (enregistré après le 14 septembre) en deuxième position « cliquez partout ». Une solution des plus classiques encore une fois, wordpress, avec un rythme de publication d’environ 1 article par jour. Cependant il comporte un thème (html) beaucoup plus classique (et basique) que le premier.

Le troisième candidat, c’est fixé, déjà 3eme il y a deux semaines le devenir Black Hat trône, mais hors concours car enregistré il y  a  bien trop longtemps. Une seule publication sur le mots clef visé pour le concours de référencement à été publiée sur ce nom de domaine. Nous avons ici affaire à  une stratégie largement axée sur l’ancienneté et la génération de backlinks.

Le 4eme est notre 2eme du premier chapitre. Dans ce premier contact je rappelais le positionnement officiel en rapport aux villes, nous notons un rythme lent de publication, mais régulier tout de même. Ce compte publie des brèves d’actualité plus ou moins en liens avec les villes. De plus nous pouvons voie que ce twitter lie un master site parlant des villes connectées sur le web.

Nous remarquons le 5ème du classement, site raisonnable en contenu de qualité moyenne s’est positionné assez facilement après les 2 première semaines de concours. Ce site comporte peu de liens sortants, un authorship et il faut aussi constater qu’il est un ancien participant du penguinzophren. Coté technique c’est une solution encore classique  : un wordpress, plutôt basique cette fois point de vue configuration.

Pour ce qui concerne les autres participants, nous pouvons remarquer une forte dominance des comptes de profils sociaux, avec des publications souvent en duplicate mais fréquentes. Nous remarquons aussi d’autres wordpress optimisés de manières diverses (catégories, keyword stuffing, short posts) qui se mélangent avec les publications sociales.

 

L’aspect {Net-linking|Link-Building|Off-site}

Comme pour le premier chapitre nous allons passer globalement à l’analyse des backlinks et du net-linking . Je vais lister les 20 premiers du classement pour élargir un peu le spectre d’analyse par rapport au premier chapitre. Je vais donc faire un relevé des backlinks et des référents pour chacun des 20 premiers participants, et enfin je commenterai les 5 premiers avec les informations que j’ai à disposition plus précisément.

Classement et analyse off-site des 20 premières pages le samedi 19 Octobre 2013 (15H30)

  1. zandit.fr/ 497 Backlinks | 198 Refering Dom
  2. takatoucliquer.fr/269 Backlinks | 82 Refering Dom
  3. devenir-bh.com/**** 73K Backlinks | 5K Refering Dom
  4. twitter.com/**** 61 Backlinks | 1 Refering Dom
  5. univ-bh.com/ 363 Backlinks | 108 Refering Dom
  6. ****.tumblr.com/438 Backlinks | 145 Refering Dom
  7.  ****.tumblr.com/347 Backlinks | 125 Refering Dom
  8.  facebook.com/**** 6 Backlinks | 1 Refering Dom
  9.  facebook.com/**** 132 Backlinks | 45 Refering Dom
  10.  ****.ax6.fr/321 Backlinks | 4 Refering Dom
  11.  doyoubuzz.com/**** 0 Backlinks (ou inconnu)
  12.  facebook.com/**** 0 Backlinks (ou inconnu)
  13.  facebook.com/**** 0 Backlinks (ou inconnu)
  14.  univ-src.fr/**** 25 Backlinks | 9 Refering Dom
  15.  data.gouv.fr/****  0 Backlinks (ou inconnu)
  16.  travail-emploi.com/**** 0 Backlinks (ou inconnu)
  17.  inagist.com/****  0 Backlinks (ou inconnu)
  18.  veille-duweb.fr/ 347 Backlinks | 87 Refering Dom
  19.  gazetaprawna.pl/****  0 Backlinks (ou inconnu)
  20. youtube.com/**** 0 Backlinks (ou inconnu)

Données obtenues sur https://ahrefs.com/

Nous pouvons remarquer que notre favori à continué sur sa lancée, avec des backlinks de qualité, un travail manuel, l’art du ninja link parfaitement illustré aie-je entendu au labo, un ratio refdom/backlinks en augmentation, probablement encore un signal positif. Toujours environ 50% des ancres qui sont optimisées, quoi que dilution oblige, ce pourcentage soit en légère baisse.

Le deuxième du classement est un nouveau, il est classé 2eme depuis peu de temps, cependant il rodait avec de multiples pages en première et deuxième page de résultat depuis un moment (jusqu’à 7 Urls  indexée en deuxième page + 1 url en première). Un net-linking proche de celui du premier, de la qualité, du trust, du ninja link bien maitrisé encore une fois.

La stratégie du 3ème n’as pas énormément changé, génération massive de backinks, nous pouvons cependant noter une dilution prononcée des ancres générées. L’ancre principal reste autour des 20%, les reste des parts répartis sur des ancres annexes ou junk. Malgré les gros volumes de backlinks sur ce cas le ratio refdom/backlinks est plutôt bas.

Notre 4ème, ce compte twitter, compte encore environ 1 millier d’abonnés, (augmentation d’une centaine environ) de tweets et retweets réguliers aussi. Il semblerait que ce participant axe sa stratégie sur l’acquisition de trust via une sélection sémantique administrative, mais très peu de backlinks. (1 seul domaine référent sur le compte).

Notre Université Black Hat favorite, en cinquième place, décorée d’une deuxième place sur le penguinzophren, fait son grand retour un an après, avec un bon équilibre contenu/net-linking. Un rythme de publication correct et une stratégie de net-linking plutôt qualitative. Un ratio refdom/backlinks un peu plus faible que les deux premiers est observable, avec environ 1 ref dom pour 3 backlinks.

Nous remarquons rapidement les deux tumblr qui zonent autour de la 6ème place et pour lesquels un net-linking assez massif a  été déployé. Mais aussi deux comptes facebook, celui de la « ville officielle » avec peu de backlinks devant celui du « moov » qui lui c’est vu générer quelques centaines de liens.

Conclusion du chapitre

Avant toute chose il faut noter quelques détails contextuels. Durant ces deux dernières semaines, google a  sortit une mise à jour de penguin (version 5.2.1) et un nouvel animal dans son bestiaire : le colibri. De ce fait, nous avons pu remarquer plusieurs phénomènes particuliers. Comme la chute du nom de domaine valide du participant « made in seo » suite au passage de penguin, le quasi million de résultat sur le mot clef du concours qui n’est resté visible que quelques heures ou encore les pages de résultats hésitantes que nous avons remarqué. Dernière qui semblait faire des retours en arrière et en avant très fréquents sur de courtes périodes.

Ensuite, comme pour le premier chapitre, je vais remarquer quelques vérités empiriques que j’observe, mais encore une fois je ne pose que quelques pierres, j’aimerai qu’une vraie analyse collective se produise, et qu’à la force du nombre nous puissions pousser les analyses à leur paroxysme et de tirer ainsi de plus complètes conclusions.

  • Le premier est toujours sur le meilleur ratio ref dom/backlinks (1/2).
  • Ce même premier publie du contenu sur une fréquence correcte et maintenue stable dans la durée.
  • Notre favoris dispose aussi du plus petit nombre de pages indexées.
  • D’un point de vue net-linking et contenu le 2ème est très proche du 1er sur beaucoup de points.
  • Le deuxième a tout de même quelques signaux moins positifs, comme le ratio ref/bl.
  • Le troisième force sur les liens et n’as pas été touché par penguin
  • Le troisième est un nom de domaine avec pas mal d’ancienneté.
  • Le 4ème tente un hack du lexique administratif, si je puis dire.
  • Globalement les méthodes d’acquisition du trust semble être les plus efficaces.
  • Notez le trust des plateformes sociales ainsi que le trust transmis via les backlinks.
  • Notez aussi le trust généré via le contenu, directement ou indirectement (backlinks).
  • Visiblement la masse et la qualité des backinks s’avèrent largement encore pondérées.
  • Tous les sites participants ont le mots clef dans la title
  • beaucoup de sites comportent de multiples fois l’occurrence entre : title, meta-desc et url

Pour conclure ce deuxième chapitre je vais continuer mon propos sur le partage, j’espère que nous serons nombreux pour poursuivre cette analyse des serp collectives, afin de mettre à jour nos connaissances des moteurs de recherche et de leur fonctionnement. Vous l’aurez donc compris, les commentaires sont fortement bienvenus !

Concours Seo 2013 : Chapitre 1 – Contact Analytique Primaire

Un concours de référencement, organisé pour toute la communauté SEO francophone, se déroule dans les pages de résultats des moteurs de recherche depuis déjà 2 semaines. Ce concours est organisé avant tout pour l’analyse et l’appréhension des méthodes de classement. L’objectif premier étant de concourir ensemble dans une adversité (SEO) volontaire, et de pouvoir, ensuite, recouper les informations (empiriques) obtenues, de les lire et même de les décrypter. Enfin nous pourrions nous approprier les connaissances obtenues, les exploiter et finir par les maîtriser. Il y a beaucoup de demandes en matière de référencement et acquisition de trafic, mais nous constatons que peu d’offres ne sont pas déceptives sur le marché. Certains disent que le savoir ne doit pas être partagé. D’autres pensent que nous avons « du pain sur la planche » et que nous devrions nous organiser et nous entraider.

Le Prélude

Je vais commencer par regarder en arrière, le 2 septembre nous annoncions le concours seo 2013 sur 4 forums SEO français importants : Seosphère, Code seo, Veille seo et Scripts seo. C’est cette page qui sert de sujet officiel quant à ce dernier concours. Rapidement quelques personnes ont annoncé leur participation au concours et des équipes se sont formées. Les stratégies ont été élaborées, certains me les ont partagé es (dans un but critique et analytique) d’autre les ont gardées secrètes, certains partageront au fil du concours, d’autres ne partageront peut-être pas, mais (un grand « mais ») nous n’avons besoin que de ceux qui partageront, pas de plus , seulement ce qu’il faut.

Le « nous » que j’emploie est un « nous » peu relatif (le moins possible) qui tente d’englober les intérêts communs du plus large groupe de personnes possibles. La grande question du partage de connaissances fait particulièrement crisser les claviers en ce moment, dans la sphère seo, il me semble, voici donc une rédaction expressive et appréciable de Loic Hélias sur le sujet, ainsi que de nombreuses prises de positions pertinentes en commentaires sur la même question. Mon avis personnel étant proche de celui que je lis sur ce billet et ses commentaires dans la quasi-unanimité, je vais ajouter que le partage doit être sain d’intention et réciproque et que comprendre la définition des mots « respect » et « reconnaissance » avec celle du mot « partage », pourrait aider à le mettre en pratique.

Les noms de domaines ont été lancés dans les pages des moteurs de recherches depuis mi-septembre, deux semaines sont passées, nous pouvons relever sur un des principaux moteurs 25K résultats sur le mot clef inventé du concours. Il sera donc l’heure pour moi d’ouvrir un chapitre, le premier. Chapitre que j’intitulerai : Contact Analytique Primaire. Un constat logique des mécanismes fonctionnels primaires de classement dans les SERP, que nous allons tenter de comprendre dans une biopsie collective des Search Engine. Analyser le premier contact de notre flopée de noms de domaines confronté aux algorithmes de classements des moteurs de recherche.

Chapitre 1 : Contact Analytique Primaire (2 premières semaines)

L’aspect {Master-Site|On-site|Contenu}

Nous parlons d’éléments primaires, nous allons donc poursuivre dans ce sens et commencer par observer les dimensions « on-site » de nos 10 premiers noms de domaines. Je précise rapidement que, par « on-site » j’entends toute la partie web applicative raccordée aux noms de domaines prévus pour ranker et tranformer dans un cas client concret. Ainsi, je vais faire un check technique et onsite des premiers résultats qui sortent dans le SERP.

Classement et analyse on-site des 10 premier ndd le samedi 28 Septembre 2013 (20H00)

      1. zandit.fr/ enregistré après le 14 septembre 15 pages indexées (wordpress)
      2. twitter.com/ enregistré avant 762 000k pages indexées (solution propriétaire)
      3. devenir-bh.com/enregistré avant 22k pages indexées (wordpress)
      4. facebook.com/ enregistré avant 2 640 000k pages indexées (solution propriétaire)
      5. 123siteweb.fr/enregistré avant 13 k pages indexées (solution propriétaire)
      6. tumblr.com/ enregistré avant 427 000k pages indexées (solution propriétaire)
      7. tumblr.com/enregistré avant 427 000k pages indexées (solution propriétaire)
      8. agence-presse.net/ enregistré avant 468k pages indexées (wordpress)
      9. agence-presse.net/ enregistré avant 468k pages indexées (wordpress)
      10. forum.ubuntu-fr.org/ enregistré avant 813k pages indexées (fluxBB)

Nous pouvons remarquer que le nom de domaine le plus récent est en tête, {B|Z}andit, c’est aussi celui qui a le moins de pages indexées, une solution logicielle plutôt classique dans le métier, wordpress, un bon rythme de publication rédactionnelle avec environ un article tous les deux jours, des articles de contenu, même léger il y a derrière chaque article quelques idées. De plus notre favori navigue en tête de classement depuis le début du concours.

Le compte twitter, 2eme, est quasiment automatique, il publie beaucoup de retweets et des petits quart de brèves, 140 caractères, vous connaissez twitter avec techniquement la solution logicielle du propriétaire de ce réseau social bleu (clair). Ce compte apparaissait furtivement en 7eme position et plus les 12 premiers jours du concours. Il sort soudain du lot avec cette 2ème position. Une ligne édito axée sur l’aspect administratif du mot clef.

Le troisième candidat, le devenir Black Hat, est, tout comme le premier, en tête de serp depuis le début du concours, un wordpress également, cependant enregistré il y a longtemps. Il compte plus de 20K pages indexées. En termes de contenu un seul article a été publié, article correctement fourni, fond de qualité avec des références sur l’origine du mot clef plutôt.

Pour les suites, les profils ressemblent, dans ces quelques grandes lignes, aux deux précédents profils, social et wordpress, que sont le compte twitter et le devenir-BH précédemment cités, le 2ème et le 3ème. Les tumblr ont très peu de contenu,l’agence de presse dispose de quelques articles et extraits rss tissés entre plusieurs sous domaines. Beaucoup de style edito, news et humour. Tous les participants du top 10 ont placé au moins une fois le mot clef dans la balise title.

 

L’aspect {Net-linking|Link-Building|Off-site}

Le fameux, le backlink, vendu avec une idée ou sans, précis ou parfois impertinent, du précieux plan, aux packs généreux, le backlink et le seo c’est une vieille histoire. Quant aux problématiques de partage, j’ajoute simplement que le web2.0 a été une sorte de révolution du web , nous sommes tous d’accord, donc ne vous inquiétez pas, des plans backlinks c’est une peu comme l’herbe ou le blé qui poussent, cela fleurit chaque matin n’est ce pas ?

Place aux chiffres :

Classement et analyse off-site basique des 10 premieres pages le samedi 28 Septembre 2013 (20H00)

      1. zandit.fr/ 212 Backlinks | 88 Refering Dom
      2. twitter.com/**** 29 Backlinks | 1 Refering Dom
      3. devenir-bh.com/‎**** 27.000 Backlinks | 2600 Refering Dom
      4. facebook.com/**** 33 Backlinks | 14 Refering Dom
      5. ****.123siteweb.fr/48 Backlinks | 18 Refering Dom
      6. ****.tumblr.com/ 58 Backlinks | 26 Refering Dom
      7. ****.tumblr.com/ 151 Backlinks | 51 Refering Dom
      8. ****.agence-presse.net/ 0 Backlinks (ou inconnu)
      9. ****.agence-presse.net/ 0 Backlinks (ou inconnu)
      10. forum.ubuntu-fr.org/**** 0 Backlinks (ou inconnu)

Données obtenues sur https://ahrefs.com/

Le premier dispose d’un nombre de backlinks plutôt équilibré par rapport aux autres, 212 backlinks, le tout sur un ratio de 50% des ancres environ en exact match (sur le mot clef, et sur le mot clef + un espace au milieu). L’autre moitié est utilisée en dilution, avec diverses ancres plus ou moins connexes. Nous remarquons 90% des backlinks en DoFollow, essentiellement du not site wide, avec un bon ratio de domaines référents. Pour résumer, après une brève analyse, j’observe surtout un net-linking qualitatif.

Le second, dispose de très peu de backlinks sur un seul domaine référent, de signaux sociaux faibles, mais nous pouvons cependant remarquer un millier d’abonnés twitter pour une trentaine de tweets publiés en 2 semaines. Une dimension net-linking peu développée pour le moment, apparemment.

Le 3ème, 27000 backlinks sur 10 fois moins de domaines référents, avec près 30% de ses backlinks qui portent l’ancre exact match du concours, un dilution récente a été observée avec des pourcentages plus faibles sur des ancres comme le nom de domaine + l’exact match.

Les 7 noms de domaines suivants se sont vu déployer des faibles quantités de backlinks, plus ou moins qualitatifs, les ancres sont globalement variées et dans l’ensemble les types de backlinks aussi. Les dilutions avec l’url exact du domaine + le keyword sont assez fréquentes. Nous constatons que la majorité des sites ont un ratio backlinks / refering dom d’environ 30% alors que le premier profite du meilleur ratio, dernier un peu plus élevé. A noter que Le 3eme, qui domine pourtant depuis le début (top 3, gros yoyo avec le premier) dispose d’un ratio faible, 10% environ.

 

Conclusion du chapitre

Pour conclure cette première approche, je ne vais rien conclure du tout, puisque l’objectif de ce chapitre reste que tous participants au concours mais aussi analystes de passage, puissent construire ensemble et dans la diversité des forces intellectuelles une analyse de données communes et contrôlées. Je vais donc souligner rapidement, quelques faits que je trouve importants. De plus le concours débute à peine, c’est un constat de données qui se dresse pour l’instant. Quelques pierre d’un édifice que le groupe pourrait construire.

  • Le nom de domaine le plus récent est premier, et il domine depuis le début (yoyo avec devenir-bh).
  • Ce premier nom de domaine dispose du plus petit nombre de pages indexées.
  • Ce premier nom de domaine dispose du meilleur ratio de domaines référents
  • Le deuxième ne dispose que de peu de backlinks , et de peu de contenu. (twitter)
  • Le troisième (ce jour là) est en duel avec le premier depuis le début
  • Ce troisième dispose du plus de backlinks dans le top 10 mais d’un faible ratio bl/ref dom (10%)
  • Tous les noms de domaines du top 10 ont le mot clef en balise title
  • Content + Scraping + Ninja Link, Mass Linking ou encore Social Baiting + Stealth Network ?

Qu’en pensez vous ? Je copie ici une citation et la conclusion de quelqu’un d’autre (à peine reformulées) :

Oui au partage des connaissances, beaucoup plus mesuré sur le partage des expériences.

Respectez-vous, respectez-nous, soyez humble, notre métier évolue tous les jours et ça c’est un bien.

Je suis pour le partage des connaissances et dans une certaine mesure des expériences, mais je conçois que les stratégies précises, basées sur les précédents, peuvent être partagées de manière selectives voire même vendue en tant que services de réflexion, complexes, propres à chaque cas. Il me semble que c’est le métier de SEO non ?

Comment effectuer une recherche de BackLink efficace avec ScrapeBox ?

Afin de trouver un spot de backlink dans une démarche de Ninjalinking, vous avez besoin de deux choses à intégrer dans votre scrapper. Le Scrapper le plus connu à l’heure actuelle ScrapeBox :

  • Un footprint
  • Un mot clé

Pour le mot clé, ce n’est pas dans cet article que je vais vous aider. Par contre pour le footprint que vous ordonnerez à Google, pas de miracle. De la recherche et encore de la recherche ! Pour ceci, je vous propose une méthodologie, certes, longue et peut être ennuyeuse, mais qui vous fera dégotter un grand nombre de footprint, qui seront peut être même souvent unique. Imaginez … Un océan de footprint, rien que pour vous !

Bon, trêve de papotage, je vous donne la technique que j’ai imaginé pour trouver des dizaines de footprint :

Apprenez dès maintenant à utiliser ScrapeBox en seulement 2 heures

scrapebox formation
Interface utilisateur de ScrapeBox

 

Afin d’apprendre à utiliser SrapeBox, vous avez deux solutions. Soit, vous prendrez quelques mois d’utilisation afin de bien savoir manier ScrapeBox de façon optimale et efficiente, et donc ainsi vous perdrez des heures d’apprentissage afin de bien le configurer, le tester et obtenir de bons résultats. Ou bien vous pouvez apprendre à utiliser ScrapeBox en seulement deux heures grâce à une formation en SEO, au travers de notre module ScrapeBox de la SEO Ranking Skills qui a déjà fait ses preuves depuis plusieurs années et qui est régulièrement mise à jour en fonction des besoins actuels d’un SEO souhaitant devenir performant.

bouton formation

 

NinjaLinker : Un grand bravo à la Team pour cette journée Marathon SEO. Les modules sont très bien construits et les supports d’accompagnement très pratiques pour se remettre dans le bain de la formation. J’ai particulièrement apprécié le module « Génération de contenu » et la démo sur le Tool de Jaffaar qui plus est, avec un accès offert (1 an) après formation. Le module de cloacking avec le script que Jaffaar nous a concocté est juste une tuerie. Quand à la formation GSA, je peux vous dire quelle est très complète et vous permettra de gagner (au moins) une Dizaine d’heure d’autoformation sur le Tool. Et en prime un E-Book détaillé pour vous aider à bien maitriser GSA. (Je pense que c’est le seul de cette qualité 100% Français). Bref, un grand merci à tous les intervenants ! Je vous recommande de faire la journée complète de formation en (BH) SEO avancée pour tout ceux qui souhaitent apprendre en accéléré. L’investissement est minime par rapport au retour que vous pourrez en tirer ! Source

Stuart : Super journée hier, encore merci aux formateurs pour nous avoir transmis plein de bons plans et d’outils à utiliser. C’était vraiment au top, on en prend plein la figure et maintenant le plus gros du boulot reste à faire : tester leurs outils et astuces et mettre en pratique nos stratégies SEO ! Je pense en effet que ça va m’ouvrir beaucoup de portes (et en fermer à mes concurrents, je pense à la classe php cloaking camouflage de Jaffaar entre autres) Bref si vous avez l’impression de patauger un peu en SEO et qu’il vous manque quelques ficelles pour faire un grand pas en avant, je ne peux que vous conseiller cette formation ! Source

Découvrir de nouveaux footprint, un océan d’opportunité de BackLink ?

Une recherche de mot clé efficace peut donner de très bons résultats sur ScrapeBox puisque vous fouillerez dans les profondeurs de Google le moindre forum, ou profil sur votre thématique. Cependant, rechercher de nouveaux footprint peut vous permettre, bien que ce soit plus long, d’élargir votre champ de recherche à d’autres CMS, qui ne sont peut être même pas connus par les autres SEO. De plus, n’étant pas, ou peu exploités, vous aurez plus de facilité à poser votre lien sur ces CMS puisque les administrateurs n’auront pas l’habitude de voir des personnes poser un lien sur leur site, du fait de la méconnaissance du CMS par les SEO.

De quoi aurez vous besoin pour trouver des footprint ?

Pour commencer, il vous faut une liste de CMS. Oui, parce que pour ceux qui ne connaissent pas énormément les footprint, on se base sur un CMS, un moteur de blog, de forum etc qui a pour particularité de mettre en DoFollow certaines entrées utilisateur comme des messages ( c’est le cas par exemple du moteur de forum phpBB ou même fluxBB ), des commentaires ( exemple à ne pas prendre puisqu’ils sont tous spammés depuis le temps mais le plugin de commentaire CommentLUV mettait le site web des visiteurs en DoFollow ). Dans le module ScrapeBox de notre formation SEO Ranking Skills ( bouton au dessus ), nous vous fournissons des footprint ou il y à déjà matière à travailler.

Donc, pour que ce soit réellement intéressant, il faut qu’il y ait un minimum de quelques centaines ( et je dis bien MINIMUM ) de sites qui l’utilisent afin de tomber sur des sites thématisés et avec un bon Trust.

Comment chercher des footprint à l’aide de votre cerveau et de votre clavier ?

Une fois que vous aurez une bonne liste de CMS, pas de sorcellerie ou d’incantations latines, installez les un par un et testez les en tentant de placer un lien sur le champ site web d’un profil utilisateur ( et n’utilisez pas votre profil admin, certains CMS placent seulement les liens des admins en DoFllow ), dans des commentaires, profils, messages, livre d’or … enfin bref, tout ce que l’utilisateur peut placer.

Bon, je vous l’accorde, ce sera très long avec une liste de 200 CMS, mais si vous vous faites un planing par exemple de 20 CMS / semaine, en un peu plus de 2 mois, vous aurez fait votre liste de 200 CMS, et ce travail vous rapportera bien plus tôt, car vous allez récupérer des footprint avant les 200 bien sûr ! Donc, en testant 3 CMS par jour ( c’est assez rapide ), en 2 mois, vous pourrez dire que le ninjalinking, c’est dans la poche ! Pas mal non ?

 

Comment trouver des footprint lorsque vous êtes développeur ?

Bon, ça c’était la technique un peu longue mais tout aussi profitable que la prochaine que je vais vous donner, malheureusement, la méthode la plus rapide mais qui vous demandera un petit brainstorming de développement et quelques centaines de lignes de code est assez rapide à expliquer. Vous développez un script qui vous permettra de rechercher les entrées utilisateurs en DoFollow. Donc en recherchant par exemple si dans chaque fichier, par exemple il y  » rel=’dofollow’  » ainsi que ‘Site web :’, ou même « Site internet : ». Enfin bref, si vous êtes développeur, je n’aurai pas grand mal à vous faire une image.

C’est tout pour aujourd’hui, j’espère que cet article vous aura plu, et surtout vous aura fait gagner en efficacité dans votre travail de ninjalinking. Si vous voyez d’autres méthodes, pourquoi pas les ajouter dans l’article ? Bien sûr, votre nom sera cité. Une bonne soirée à vous !

Quels sont les enjeux du Ninjalinking ?

ninjalinking

ninjalinking

Salut tout le monde ! Aujourd’hui je vous pond un article sur le Ninjalinking. Très utilisé dans le milieu black hat, parfois méprisé par les white hat, il est sujet à controverse. Et pourtant nous allons voir que le Ninjalinking n’est pas si « sale » que ça. Fervent adepte du Ninjalinking, je ne peux que vous en assurer la puissance qu’elle renferme si elle est bien maniée, que ce soit sur des projets perso ou même sur des sites clients.

Qu’est ce que le Ninjalinking ?

Alors pour ceux qui ne connaissent pas la technique du Ninjalinking, elle consiste à placer ( au mieux ) discrètement, tel un ninja, un lien sur un site internet afin d’en ressortir un backlink ( lien retour ). Non pas forcément en hackant le site ( certains le font ), mais tout simplement, en exploitant les sites qui vous permettent d’y placer un lien lorsque le site vous le permet. Que ce soit dans un sujet de forum, sur votre profil, dans un commentaire de blog etc etc vous m’aurez compris.

Pourquoi le Ninjalinking est très puissant ?

Le Ninjalinking vous permet, à l’aide d’outils de scrap comme ScrapeBox, de récupérer des listes de sites vous permettant de découvrir des sites selon vos critères de Ninjalinking au moyen de « footprints » ( commande Google qui vous permet de rechercher les sites qui possèdent, par exemple, des mots qui peuvent identifier un CMS, un type de site, un thème etc ). Une fois votre liste récupérée, vous pouvez trier ces résultats en les envoyant dans un bulk ( action de masse ) sur un outil comme Majestic SEO ( cet outil fait parti du pack starter du SEO à avoir ), pour récupérer les sites avec le plus gros TF, dans votre thématique ; grâce aux Topical Trust Flow. A partir de la, vous pourrez y voir de très bonnes pages ou vous pourrez poser votre lien ( on peut voir de très grosses metrics parfois ) et en nombre. Lors d’un scrap, vous pourrez récupérer des dizaines de milliers voir plus selon le nombre de mot clé et de footprint.

Comment apprendre à manier le ninjalinking ?

Le ninjalinking prend du temps à être utilisé de manière optimale. En effet, le ninjalinking, si il est bien réalisé, est très bénéfique pour votre référencement. Cependant, il demande une technique assez approfondie afin de réaliser un travail de fond avec un maillage interne, trouver les meilleures pages pour poser votre lien ( en terme de puissance de « jus » et de cohérence sémantique.

Apprendre le SEO tout seul peut être très fastidieux. C’est pour cela que l’on peut apprendre le SEO en général, ou même plus particulièrement le ninjalinking si vous êtes déjà un adepte du SEO. Le site formation seo ( proposé par Net Square ) vous propose le module Ninjalinking afin de tout connaitre ( ou presque ) sur la façon de faire un netlinking de qualité, en terme de puissance, de longévité et efficient.

 

bouton formation

Pourquoi le Ninjalinking n’a pas que des avantages ?

Le Ninjalinking est à utiliser avec précaution car cela reste une technique black hat, en premier lieu, donc Google n’autorise pas ce genre de méthode. De plus, le Ninjalinking peut donner une mauvaise image de votre site si vous l’utilisez de manière à spammer le site en question, mais ce n’est pas ce que l’on recherche dans le ninjalinking, notre but est de populariser notre site, habilement afin de susciter l’acceptation de notre lien, sons aspect naturel et sa non modération.

Le Ninjalinking peut avoir l’effet inverse si mal utilisé

Eh oui, si vous ne prenez pas vos précautions, il se peut que le ninjalinking ait l’effet inverse sur votre site si par exemple, vous faites vos liens de manière trop visible et inappropriée, les backlinks s’indexeront peut être quelques jours mais seront rapidement supprimés, Google n’aime pas voir des liens qui disparaissent sur un site puisque cela prouve qu’il y a une modification négative du site peut être ?

Le Ninjalinking, c’est pas aussi facile que sur le papier

Tous les liens ne sont pas bons a prendre, si vous voyez 10 000 liens sur votre scrap, c’est loin d’être open bar puisque vous aurez pas mal de forums avec de très faibles metrics, parfois spammés, des faux positifs aussi, et parfois des sites qui ont passés leurs liens en Nofollow. Donc, le ninjalinking n’est pas aussi simple que l’on peut le croire, mais cela en reste une technique très puissante. C’est pour cela, que pour appliquer au mieux les meilleures stratégies de référencement, il vous faut un consultant SEO afin de vous guider.

Optimisations pour contenu On Site en SEO local

optimisation on site seo local

optimisation on site seo local

Cohérence est maitre d’optimisation de contenu

Salut la compagnie ! Je vous ait rédigé un petit article pour recenser quelques bonnes pratiques en terme de contenu On Site pour vos sites de SEO local (ce sont des sites destinés à être référencé sur une requête du type : « mot clé + localité » ).

Pour commencer, je vous rappelle que les deux caractères principaux d’un contenu de qualité aux yeux du moteur de référencement Big G(oogle) sont tout d’abord, l’originalité ( pas de duplicate content bien entendu ) et la cohérence de votre contenu par rapport à la requête ou vous souhaitez vous positionner. Pour l’originalité, pas de secret, écrivez votre contenu vous même ou à l’aide d’un outil de content spinning comme SEO Quartz afin d’obtenir un contenu original ( le plus possible du moins ) sur de gros volumes sans l’écrire a la main.

Pour la cohérence, je vous conseille d’intégrer des éléments uniques à la localité visée. Il ne faut pas seulement partir sur une sémantique basée sur le mot clé mais aussi sur la localité afin que votre contenu soit plus puissant. Pour exemple, vous pouvez intégrer le code postal de la ville visée, qui est un élément presque unique de la localité visée ( la plupart des codes postaux ne correspondent pas à énormément de villes ou communes ).

Vous pouvez également y intégrer deux liens sortants d’autorité qui confirmeront la cohérence de votre contenu :

  • Un lien sortant d’autorité thématisé sur le mot clé, intégrez un lien à fort trust thématisé sur la plomberie si vous voulez vous positionner sur de la plomberie ( logique ).
  • Un autre lien sortant thématisé, lui, sur la localité visée ( exemple si vous voulez vous référencer sur plombier Paris, vous pouvez poser un lien avec ancre optimisé sur Paris vers la page Wikipedia de Paris ).

Si vous possédez n’importe quelle information unique à la localité, elle est bonne à prendre comme une adresse ( adresse de la mairie par exemple, ou de l’entreprise qui prendra en charge les devis si elle s’y trouve )

Pour être encore plus précis, vous pouvez même, à l’aide d’une API intégrer la météo de la commune visée afin que cet élément soit le plus unique possible. Si vous développez un peu, vous pouvez faire tout cela avec un script PHP que vous pourrez lancer en masse sur votre site ( si vous avez des dizaines, centaines, milliers de villes ? )

Pour sûr, ces optimisations on site n’auront qu’un impact positif dans votre positionnement chers amis.

optimisation seo local sémantique

Quelques notions générales d’optimisation de contenu

Bien sûr, n’oubliez pas pour autant les standards d’un contenu optimisé pour le SEO, je ne vais pas tous les citer car ce n’est pas le sujet de l’article mais une piqûre de rappel ne fait jamais de mal :

  • Un contenu structuré par paragraphe, nommé par un titre et des sous titres classés du sujet le plus général au plus précis.
  • Une mise en valeur des éléments importants du texte, par exemple mettre en gras, ou en italique vos mots clés et co-occurrences fortes et moyennes ( sans se lancer dans une sur optimisation qui ne vous aidera pas dans le référencement de votre page ).
  • Au minimum une image par article / page afin d’illustrer vos propos ( et il faut avouer qu’il est quand même plus agréable de consulter une page imagée ).
  • Je ne vous parle pas de l’importance de placer au moins un lien sortant vers un site d’autorité afin de montrer à Google que vous appuyez vos propos par des sources ( pas trop de liens non plus afin de ne pas gaspiller le jus de votre page ).

Le SEO local est un domaine du SEO très intéressant car rémunérateur et il vous permet une approche marketing et qualitative afin de ressortir des devis de votre site. Si vous souhaitez monter un business de SEO local, n’hésitez pas à faire appel à un consultant en référencement.

N’hésitez pas à commenter des éléments uniques qui composent une localité afin de compléter la liste et de pouvoir optimiser à fond le caractère cohérent de votre contenu couplé à la sémantique !

J’espère que cet article vous aura ( un minimum ) aidé et que vous en aurez ressorti quelques notions intéressantes pour vos sites internet. Je vous souhaite un bon week-end à tous !

Analyse de postions sur Google

Surveiller les mouvements de vos pages web dans les moteurs de recherches et primordial, et ce pour chacune des expressions sur lesquelles vous souhaitez vous positionner. Les pages gagnent et perdent des positions chaque jours, une de vos actions peu avoir un impact très positif et une autre n’en avoir aucun , c’est à vous de tirer les conclusions utiles en observant les réactions et mouvements quotidiens de vos pages en fonction de vos expressions clef et de vos actions de référencement.

Comment surveiller les évolutions ?

Il serait bien évidement trop long et trop fastidieux de vérifier chaque positions pour chaque expressions ciblées manuellement, différents logiciels applicatifs ou en lignes vous proposent ces services, certains sont complémentaires, d’autres obsolètes. Un logiciel gratuit comme positeo vous permettra de connaitre une position pour vos mots-clef à un moment particulier, cela sur plusieurs des data-centers de google, alors qu’un outil de monitoring comme allorank vous offre un historique et un suivi des évolutions/regréssion dans le temps pour vos expressions ciblées. D’autres outils comme ahref ou encore magestic seo permettent de suivre l’évolution des profils d’acquisition de backlinks de vos sites, avec des schémas graphiques et des courbes représentant les évolutions dans la durée. Des statistiques sur le nombre de domaines référents ou sur les pourcentages de vos ancres sont aussi accessibles.

Lecture des informations collectées

Il sera, après lecture de ces informations et analyse détaillée, nécessaire de les recouper, de les faire parler et de les comparer. Cela car elles sont parfois divergentes d’une part, et ensuite car elles sont surtout complémentaires. La compréhension de ces informations statistiques se traduira par des réactions positives et un apprentissage constant des bonnes pratiques à mettre en œuvre pour séduire les moteurs de recherche. Une bonne manière de réagir à ces informations et données positives ou négative se manifestera pas un apprentissage basé sur des réflexions empiriques, en simple il s’agit de tirer leçons de ses erreurs et de multiplier les actions profitables. Le monitoring, dans une campagne de référencement, constitue les yeux du référenceur.

 

 

 

french porno mom and daughter sharing cock indian punjabi xxxcom