Comment construire une stratégie SEO efficiente ?

consultant seo

consultant seo

Avant le début même de la création d’un site internet, il est important de savoir comment sera construite votre stratégie SEO afin de créer votre site internet de façon à être en adéquation avec la stratégie SEO la plus adaptée à votre projet. Cet article s’adresse essentiellement à un public déjà bien habitué au netlinking, stratégies avancées et aux audits SEO. Cet article ne vous apprendra pas comment appliquer votre stratégie SEO, c’est un sujet trop vaste pour un seul article, mais si vous avez déjà un bon pied dans le SEO, ce billet vous permettra d’évaluer les besoins stratégiques de votre projet / site internet.

 

L’étude de marché SEO de votre projet

étude de marché seo

Avant de débuter un site internet, il vous faudra savoir si cet investissement ( en temps ou en argent ) vaudra le coup. Il faut d’abord analyser l’environnement qui entourera votre business. Pour cela, il vous faut effectuer une analyse de la demande sur Google via les mots clés. Ensuite il vous faudra réaliser un audit de votre concurrence afin d’évaluer les besoins primordiaux de votre projet.

 

Analyse des mots clé de votre niche sur Google

Afin d’effectuer une analyse de mot clé, équipez vous d’un outil tel que SEMrush qui est très performant pour ce type d’action. Vous pouvez d’ailleurs tester cet outil grâce au widget ci dessous pour commencer votre analyse de mot clé. Il vous faut exporter tous les mots clés afin d’en extraire la data pour déterminer quelles requêtes vous allez travailler ( il y a parfois des faux positifs ). Ensuite, faites la somme des volumes de recherche de ces mots clés afin de connaitre le potentiel de trafic que vous obtiendrez.

 

Simulation du chiffre d’affaire potentiel de votre projet

seo revenu passif

Afin de connaître la rentabilité de votre projet, vous devrez connaître le chiffre d’affaire potentiel de votre site internet. Pour cela, vous devez connaître un minimum la monétisation que vous mettrez en place pour votre business. Par exemple, connaître le taux de conversion moyen du secteur d’activité ainsi que la rémunération que vous obtiendrez à chaque conversion.

Je ne peux pas vous dire le chiffre d’affaire potentiel de votre business, mais je peux vous donner quelques chiffres afin que vous puissiez vous repérer et effectuer une estimation de ce que vous pourriez gagner.

  • Dans le cas d’un site de e commerce, le taux de conversion moyen est de 1 % ( un peu plus pour Amazon ~ 2 % ). Afin de connaître le panier moyen de votre thématique, vous pouvez vous renseigner sur des sites spécialistes en statiques commerciales.
  • Le premier sur Google capte en moyenne 30 à 50% du trafic qui arrive sur la SERP ( des améliorations peuvent être faites avec une méta-description attractive et titre optimisé pour le SEO + Marketing, a noter que le putaclic fonctionne ).
  • Afin de connaître votre rémunération à chaque conversion, vous devez consulter la société qui vous rémunère ( plateforme d’affiliation, Network de CPA  etc ).
  • En moyenne, le taux de personnes arrivant sur votre site et qui cliqueront votre CTA ( lien amazon ou autre ) est de 60 % si le CTA est bien mis en avant.

Ces informations vous permettront de calculer le chiffre d’affaire potentiel de votre projet. Par exemple, sur une niche à 50 000 recherches / mois, avec un panier moyen à 150 € ; en étant premier avec une comission de 5 % sur le chiffre d’affaire généré :

50 000 * 0,4 ( CTR ) * 0,5 ( Taux de clic sur CTA ) * 0,02 ( Taux de conversion ) * 150 ( panier moyen ) * 0,05 ( taux de commission ) = 1 500 €

Sur cette niche, je gagnerai environ 1 500 € / mois lorsque je serai premier ! Bien sûr, ces chiffres sont à prendre avec de grandes pincettes puisque beaucoup de facteurs peuvent influer ces chiffres aussi bien dans le positif que le négatif. Joli chiffre d’affaire, quand on sait que les site Made For Amazon « MFA » ( par exemple ) ne demandent pas de gros investissements !

 

Comment construire une stratégie SEO on site ?

Comme on dit chez Net Square, une bonne stratégie Off Site sur une On Site bancal, c’est comme une montgolfière attachée à des enclumes. C’est pourquoi il vous faut optimiser votre On Site au moyen d’une grande quantité de contenu avec une bonne qualité sémantique et reliée avec un maillage interne bien pensé, que ce soit pour Google et aussi vos visiteurs car un maillage mal fait peut entrainer un fort taux de rebond sur votre site. Ce qui est un mauvais signal pour Google et un gâchis d’audience.

 

Surpassez la sémantique de vos concurrents

 

Le SEO, c’est comme une conquête. Il vous faudra avoir une meilleure stratégie SEO que vos concurrents afin de pouvoir capter le trafic voulu. C’est pourquoi, le début d’un projet se fait aussi par un audit de votre concurrence afin d’évaluer vos besoins en contenu et en netlinking. Vous devrez réaliser cet audit sur l’intégralité de la première page ( je ne dis pas 10 car des SERP ( pages de résultat Google ) à 6, 7, 8 et 9 sont apparues il y a peu de temps.

Tout d’abord, un audit sémantique doit se faire, et déterminer si les sites présents en première page sont spécialisés. Ensuite, estimez le nombre de pages et de mots sur chaque page qui entrent dans la sémantique de votre niche ( exacte ou proche ). Vous savez désormais, le MINIMUM à appliquer pour être à son niveau sur le contenu. Évidemment, si vous faites le double, le triple ( ou plus ? ) de contenu, ce sera un accélérateur certain alors je vous recommande fortement de surpasser de loin les concurrents dès le départ.

 

Établir la liste des mots clés travaillés

Excel SEO

Afin d’établir la liste des mots clés que vous travaillerez, vous devez vous équiper de l’export SEMrush que vous avez sur votre thématique afin d’en retirer les faux positif ( mots clé hors thématique présents dans l’export ). Ensuite, triez les dans un tableau Excel afin de les regrouper non pas par ressemblance du mot clé mais par sémantique. C’est à dire que vous regrouperez les pages qui sont proches sémantiquement et donc qu’il serait cohérent aux yeux de Google de les lier ensemble afin de réaliser votre maillage interne. Vous devriez donc avoir vos mots clés regroupés par sémantique et vous êtes prêts à réaliser votre Mind-Map.

 

Construire un Mind-Map du maillage interne de votre projet

 

Afin de construire votre maillage interne vous devrez construire l’architecture des pages de votre site. Je ne vais pas vous apprendre à construire votre maillage interne, car c’est un sujet très vaste, mais il est important d’utiliser un Mind-Map pour imager votre architecture SEO. Cela vous permettra de modifier votre structure facilement avant la création du site grâce à l’ergonomie que vous offre un Mind-Map. Afin de comprendre le fonctionnement du maillage interne, je vous propose cet article très bien écrit et complet de Serge Esteves sur le maillage interne et le Page Rank

 

Le Content Spinning est-il judicieux dans mon cas ?

 

seo quartz content spinning

Pour répondre à cette question, je dirais que le Content Spinning en lui même est toujours judicieux, puisque cela se résume à du contenu de masse. Les deux gros facteurs de positionnement dans Google sont les liens et le contenu donc une masse de contenu sémantique et maillée n’auront qu’un impact bénéfique pour votre positionnement Google. Le Content Spinning n’est qu’une technique de génération de texte, si vous travaillez vos taux de similarité de façon à ce que Google n’y voit que du feu, Google ne fera pas la différence entre un contenu écrit à la main et un contenu généré. La question à se poser serait plutôt comment effectuer mon Content Spinning et dans quel but ?

  • Mon Content Spinning servira t-il à se positionner sur de nouveaux mots clés comme de la longue traine ?
  • Servira t-il à effectuer un enrichissement sémantique quantitativement ?
  • Sera t-il judicieux d’afficher mon contenu spinné aux utilisateurs ? Mise en place d’un Cloaking ?
  • Quel rythme de publication définir afin de passer en douceur sous les radars de Google ?

Les possibilités du Content Spinning sont énormes, de manière qualitative ou non, il peut vous aider à enrichir votre site sémantiquement, à toucher un grand nombre de mots clé de longue traine que vous n’auriez pas pu toucher en rédigeant votre contenu à la main. Notre outil  de Content Spnning SEO Quartz vous permet d’accéder à la technologie du Content Spining. Cliquez sur le bouton ci dessous si vous souhaitez essayer le content spinning.

seo quartz

 

La stratégie de netlinking du site internet

 

netlinking seo

Le premier facteur de positionnement sur Google est le netlinking. Impossible de se positionner sur une thématique concurrentielle sans prévoir une stratégie de lien pour votre projet. C’est pourquoi il est important d’évaluer vos besoins en terme de qualité et de quantité de lien afin de surclasser ses concurrents et passer en première page. La qualité et la quantité sont les premiers critère d’un netlinking efficace, nous allons voir comment évaluer ses besoins en netlinking.

Comment évaluer les besoins en Netlinking de mon projet ?

Afin d’évaluer vos besoins en terme de liens entrants ( backlinks ), vous devrez analyser de façon approfondie les 10 premiers de vos plus gros mots clés et une analyse rapide de la deuxième page. A noter, que le premier de la SERP ne sera pas forcément celui avec le meilleur SEO mais est souvent celui qui est la depuis le plus longtemps dans la niche ( bien qu’il ait acquis une autorité avec le temps ), comme vous le savez, le temps est un facteur ultra important dans l’algorithme de Google.

L’analyse approfondie du netlinking de vos concurrents se compose de cette façon :

  • Nombre de domaines référents de votre concurrent
  • Sans y accorder une confiance totale, regarder le Trust Flow des liens de votre concurrent afin d’en estimer la qualité. Un élément important à prendre en compte est le nombre de domaine référents des backlinks de votre concurrents.
  • Présence ou non de liens « spéciaux » ? Comme des sur des sites de mairie, article dans la presse ( a ne pas confondre avec les CP basiques, on parle de liens comme sur le Monde, le Figaro etc ).
  • Les ancres de lien de votre concurrent vous donneront des indices sur les mots clés que focus vos concurrents
  • Un graphique des domaines référents dans le temps, afin de voir si le site est à l’abandon en terme de lien ( bonus pour vous ), si il monte en flèche ( présence de budget et d’amélioration dans le temps, donc à surveiller )
  • Présence de liens toxiques ( Blast, NSEO, liens toxiques naturels )
  • Un point qui n’est pas dans le netlinking et à ne pas négliger pour estimer le temps de référencement de votre site après application de votre stratégie est l’ancienneté du nom de domaine.

L’analyse de la deuxième page de résultat sera plus simple, puisqu’elle ne comportera que :

  • Nombre de domaines référents de votre concurrent
  • Sans y accorder une confiance totale, regarder le TF des liens de votre concurrent afin d’en estimer la qualité. Un élément important à prendre en compte est le nombre de domaine référents des backlinks de votre concurrents.
  • Un graphique des domaines référents dans le temps, afin de connaître l’évolution de son Off Site.

Cette analyse simple vous permettra de repérer les  » étoiles montantes  » de votre niche afin de connaître vos concurrents de demain en vous imaginant une prévision de concurrence d’ici quelques mois lorsque vous serez en train d’appliquer votre stratégie. Imaginez, un secteur peu concurrentiel avec des centaines de concurrents à gros budget qui se lancent au même moment que vous ( comme cela a été le cas avec les cigarettes électroniques il y a quelques années ). La niche sera t-elle aussi intéressante qu’avant ?

Un point à ne pas négliger lors de vos analyses de concurrence, est de regarder si ce concurrent a du trafic sur SEMrush, afin de déterminer si sa stratégie porte ses fruits ou si c’est un flop ( on parle d’un flop, un site avec 400 domaines référents et 100 visiteurs par jours par exemple ). Si c’est un flop, regarder les raisons de cet échec ( projet pas encore abouti ? Mauvaises décisions ? ). Si sa stratégie porte ses fruits, prenez en compte la configuration de son projet afin d’en tirer les points bénéfiques et les aspects à éviter.

Afin d’être efficient, je ne vous conseille pas vraiment d’opter pour une stratégie de lien a base d’achat de lien sur des plateformes qui peuvent s’avérer onéreuses. Je vous conseille plutôt d’user d’une stratégie ninjalinking puissant et  » naturel « .

 

Mon site internet a t-il besoin d’un réseau de site ?

Le Networking, aussi appelé PBN, est une technique de référencement avancée qui consiste à créer soi même ses liens au travers de petits sites internet. L’utilisation de cette technique nécessite de maitriser la majeure partie des aspects du SEO comme la sémantique, le netlinking, avoir une vision assez globale du fonctionnement de Google et de connaître les règles de sécurité qui doivent être appliquées dans le netlinking et dans le Networking. Le Networking est censé représenter le lien parfait avec plusieurs niveaux de site qui parleront donc de votre thématique. Une sémantique au plus proche de vos requêtes, des liens à fort trust sur le site satellite, un site qui publie du contenu régulièrement afin de le garder frais aux yeux de Google. Si vous souhaitez en connaître d’avantage sur le Networking, un ebook pour vous guider dans votre stratégie de PBN networking est disponible sur ce lien.

La création d’un PBN est donc une stratégie couteuse ?

C’est une technique qui semble assez longue et couteuse, mais des processus d’automatisation viennent faciliter la tâche des SEO les plus coriaces comme le Content Spinning qui consiste à générer automatiquement du contenu a partir d’un texte de base, ou encore des outils comme GSA vous permettent d’automatiser le netlinking sur vos sites de Tier 2 ( deux niveaux en dessous de votre Money Site qui ne nécessitent pas une aussi grosse qualité, ils ne touchent pas votre site directement ).

Des outils de content spinning comme SEO Quartz vous permettent de diviser par 50 vos couts de production de contenu grâce à cette même technologie.

Comment savoir si j’ai besoin de mettre en place un PBN ?

Afin de savoir si votre site a besoin d’un PBN, fiez vous à votre instinct car il n’y a pas de chiffre exact à vous donner. Mais si vous voyez quelques premiers ont beaucoup de contenu, 300 domaines référents, de gros liens etc ; alors nul doute que vous aurez besoin d’une grosse puissance de frappe afin de les doubler sur Google. La création d’un PBN est quasi obligatoire pour les thématique les plus concurrentielles si vous n’avez pas les moyens d’une entreprise qui fait des millions d’euros chaque année. Le Networking est une technique optimale et efficiente seulement lorsque vous maitrisez les aspects globaux du SEO. Si vous souhaitez apprendre le SEO, nous proposons un service de formation SEO sur trois niveaux ( SEO Basic Skills, SEO Ranking Skills et SEO Master Skills ) et qui ont fait leur preuves depuis des années en formant des dizaines de chef d’agence SEO, et des noms connus dans la communauté. Le module Networking est présent dans la formation SEO Master Skills.

 

GSA SER : Le Guide Ultime, en Français !

gsa ser tuto en françaisGSA SER est un logiciel qui permet de créer des liens de façon automatique, sur des centaines de plateformes différentes.


Mis à part les réglage de la machine et du projet que vous lancez, tout peut être automatisé :

  • Création des backlinks
  • Rythme de publication
  • Création de tiers ( des backlinks vers des backlinks )
  • Recherche de Proxies
  • validation des liens d’activation de comptes dans les mails
  • faire des liens que sur des plateformes Dofollow
  • etc …

 

Il existe des dizaines de façon d’utiliser un outil de création de lien automatique.

Par exemple :

  1. Créer des backlinks de qualité sur des plateformes spécifiques et trié, en quantité raisonnable et naturelle.
  2. Envoyer des milliers de liens afin de faire grimper rapidement son site ( oui, en 2017 ça marche encore, ça dépends bien entendu des thématique et du niveau de concurrence  )
  3. etc …

 

L’interface Générale de GSA SER

Peu importe votre utilisation, la prise en main de l’outil est la même. Dans cette première vidéo, vous allez découvrir les différents élément de l’interface générale de GSA SER :


 

Les réglages généraux de l’outil

Bien, vous avez découvert les différents option et vous avez un peu mieux compris à quoi servent les différentes infos sur l’interface. Vous êtes impatient de créer votre première campagne, n’est ce pas ?

Mais pas si vite !

Avant, il vous faut régler les paramètres généraux de l’outil. Dans cette vidéo, vous allez découvrir :

  • Comment régler sa machine pour augmenter la rapidité / le nombre de réussite de vos projets
  • Le réglage des proxies
  • La règle des 3 services de captcha à utilisé pour augmenter son nombre de réussite et diminuer ses coûts
  • Comment connecter GSA SER à ses services d’indexation
  • Comment éviter de poster des liens sur des sites Malveillants
  • Comment enregistrer tous ses liens soumis et / vérifié
  • Comment trier ses listes pour augmenter sa LPM
  • Comment connecter GSA SER à des services externes

Fini ?

On y est presque ! Mais ne soyez pas impatient, vous allez régler votre première campagne.


 

Créez votre première Campagne avec GSA SER

Plus vous allez la remplir de façon qualitative, plus les résultats que vous obtiendrez correspondront à vos attentes.

L’erreur du débutant est de vouloir aller trop vite ici ! Impatient de voir les premiers backlinks apparaitrent, il bacle ce travail de préparation. Ne faites pas cette erreur.

Découvrez dans cette vidéo :

  • Les différents Type de backlinks que vous pouvez poster
  • Les différents tris qui sont à votre disposition ( Dofollow / Nofollow – Lien contextualisé ou non – Lien avec ou sans ancre, etc …. )
  • Comment régler ses ancres
  • Comment renseigner les différents champs correspondants aux différents types de Backlinks
  • Les différents réglages possible pour vos articles / MasterSpin
  • Les options de planifications et vérifications
  • Le Réglages des Moteurs de Recherche
  • Les types de backlink ( super important, les réglages de bases peuvent vous empêcher de poser sur certaines plateformes !!!)
  • Les choix des Pays
  • Le réglages des mails


Vous avez tout réglé ? Bravo !

Lancez maintenant votre campagne et voyez vos premiers liens apparaitre !

Si GSA ne semble pas marcher au début ( il cherche des cibles mais ne poste pas ), c’est normal ! Il a un besoin de « rodage » et ça ira mieux au bout de 2/3 jours.

Vous savez maintenant comment utiliser GSA SER.

Cette série de video peut s’accompagner par le pack SEO Networking + GSA SER Guide complet pour un démarrage autonome complet.

Pour aller plus loin et maitriser GSA SER complétement et facilement découvrez notre ebook manuel support complet !

+ Profitez de l’automatisation intelligente et autonome
+ Générer jusqu\à des dizaines de milliers de backlinks par jours
+ Apprenez comment ré-activer la puissance de vos domaines expirés
+ Découvrez les nouveaux usages GSA pour booster son réseau de site, proprement

 

 

Alors c’était comment l’événement Rogue Libre à Marseille ?

Conseil en référencement

 

 

Salut à tous ! Comme certains le savent, hier a eu lieu le premier événement Rogue Libre à Marseille. Cette journée s’est très bien passée. Il s’y est installé une bonne ambiance assez rapidement et les échanges, très intéressants.

Après que les participants soient arrivés, un petit déjeuner à base de viennoiseries, café et différents jus de fruit a été servi. Les participants ont pu se découvrir, et voir enfin qui est la personne derrière chaque pseudo. Ensuite, tout le monde s’est réuni dans la salle de conférence pour le discours d’entrée de Jaffar Saleh afin d’introduire l’événement et présenter Rogue Libre en détail ( évolutions possibles, spécialités, bonus etc ) aux participants de l’événement qui ne connaissent pas le concept.

Ce discours fut suivi d’une pause avec une collation qui permet de se dégourdir les jambes et aux fumeurs de discuter dans la cour. Discutions amicales et professionnels ont été au rendez vous avec un bon esprit durant toute la journée entre les participants. De belles rencontres se sont faites, des personnes ont franchies le pas pour rejoindre le programme Rogue Libre suite à ce discours / conférence de présentation.

 

 Et les conférences ?

 

Networking SEO, par Jaffaar Saleh

Le profil de l’intervenant

Jaffaar Saleh– Localisation : France
Architecte Logiciel
Consultant SEO
– Fondateur de la communauté script-seo
– Fondateur de Rogue Libre

 

Jaffaar Saleh nous a présenté sa vision du Networking SEO au travers d’exemples concrets sur l’impact que peut avoir un Networking puissant sur un site internet. Il  nous expose aussi l’environnement dans lequel doit se placer le site internet afin de gagner une puissance qualitative avec une vision à long terme. L’évolution dans le temps étant un facteur clé d’un bon référencement, Jaffaar nous liste toutes les informations récoltées par le moteur de recherche qui pourraient faire que votre site soit pénalisé et comment y remédier.

 

 

Netlinking en 2017, par Anthony Grimaud

Anthony Grimaud, netlinker de qualité, nous a expliqué toutes les étapes importantes du netlinking, vu par un black hat. Le choix du type de spot, les critères d’un bon spot et comment l’exploiter au mieux. De plus, il nous a expliqué quelques tips qu’il a pu expérimenté au cours de ces années de SEO. Des cas concrets ont agrémenté ce topo de qualité sur le netlinking et des courbes semrush pour montrer l’impact de ce travail, qui est au cœur de l’activité de tous les SEO.

Voici le lien des slides de sa conférence : Faire du netlinking en 2017

Le profil de l’intervenant

Anthony Grimaud– Localisation : France
Consultant SEO freelance
Formateur chez Formation SEO
– Chercheur SEO
– Spécialisé en Netlinking

 

 

Le business de l’Affiliate Marketing en 2017, par Arthur Villecourt

En affilié aguerri, Arthur Villecourt nous a fait un retour d’expérience sur plusieurs types d’affiliation qu’il a eu l’occasion de tester lors de ses projets. Il a aussi abordé la question des requêtes très concurrentielles, connues pour être aussi, les plus rémunératrices. Il nous a exposé aussi, des facteurs clés de la conversion, et comment les mettre en place. Comment récupérer une bonne proportion d’adresse e-mail sur votre trafic total et comment les amener au mieux vers le tunnel de conversion.

Son retour sur la super affiliation ( affilier et coacher des affiliés pour une entreprise et être commissionné sur les gains de ses affiliés ) a permis a des personnes de connaître ce business très en vogue chez les grosses boites de médias.

 

 

Le profil de l’intervenant

Arthur Villecourt– Localisation : Malte
– Fondateur de la communauté de Web Marketing Impact IM
Affilié & Super Affilié
– Associé High Five
– Multi Entrepreneur

 

 

Cette belle journée s’est achevée sur une discussion en sortant de la conférence d’Arthur, puis, pratiquement tout le monde s’est dit au revoir. Je dis pratiquement tous puisque quelques participants ont passés la soirée ensemble en mangeant une pizza sur le vieux port ( Jaffaar, Makman, Jessyseonoob, Docteur Mi, Holox ( moi même ), Anthony Grimaud, Dust n Bones et Antoine Guyon ).

 

Je vous souhaite une bonne journée, un grand ( même énorme ) merci à tous les participants et à bientôt pour de nouveaux événements !

Événement SEO : Rogue Libre à Marseille le 22 juillet

 

Chers lecteurs, Net Square a le plaisir de vous annoncer que nous organisons notre premier évènement SEO appelé, Rogue Libre. Il porte le nom du programme d’affiliation que nous avons lancé afin de permettre à n’importe quelle personne, le temps qu’elle est motivée, de devenir indépendant financièrement au moyen de l’affiliation Amazon. Ce programme est organisé par équipe ( équipes choisies par les membres organisateurs afin de faire les meilleurs profils d’équipe selon les compétences et motivation ).

Un évènement, dans quel but ?

Afin d’organiser une rencontre entre les membres du programme Rogue Libre,  et pas que, puisque n’importe quelle personne souhaitant venir à l’évènement y est bien sûr, le bienvenue ! Cet évènement sert à rencontrer d’autres personnes du métier, tisser des liens d’amitié, et même y apprendre énormément de choses puisque des conférences y ont été organisées avec des intervenants qui vous préparent un programme très instructif, notamment en SEO et en marketing.

Ou et quand se passe l’évènement ?

L’évènement Rogue Libre, se déroulera le 22 juillet dans la si belle ville qu’est Marseille dans le 5ème arrondissement plus précisément. Les locaux qui vous y accueilleront seront composé d’une salle de conférence, un espace d’accueil ou nous nous retrouverons, un assez grand jardin et une salle en plus qui servira d’atelier Networking. L’évènement commencera à 9h pour se terminer à 18h et se tiendra en ces lieux ( voir photos ci dessous ).

Quel est le programme de la journée ?

Le programme de la journée se fera de 9h à 18h. Il sera composé de collations, de discutions sur le SEO, de rencontres entre pro du secteur ainsi que de conférences SEO & Marketing. Voici le programme détaillé :

rogue libre programme event

Quel est le prix et que comprend-t-il ?

Le prix pour cet évènement est de 59 € TTC. Il comprend tout d’abord, la journée entière de l’évènement, le petit déjeuner, le repas du midi et différents goûters ( que vous pourrez choisir au moment de vous inscrire ) ainsi que les goodies que nous vous avons préparé ( voir ci dessous ) :

 

Concours Seo 2013 : Chapitre 3 – Conclusions Statistiques

Le concours de référencement 2013 c’est terminé le 30 novembre à minuit, après 2 mois et demi de bataille féroce dans les search engine result pages, nous avons pu découvrir le classement final et remettre les lots aux vainqueurs. Ce concours aura été plein de rebondissements, et nous allons voir un peu plus en détail les mouvements et événements de ce concours. Cela avec un peu de recul, quasiment un mois après la fin du concours, pour conclure avec ce dernier billet d’analyse. Comme pour le chapitre 2 , nous allons analyser les 20 premiers du concours, sur la dimension on-site et off-site, je vais ajouter aussi quelques nouveaux chiffres pour approfondir un peu les réflexions, et enfin je parlerais de quelques événements généraux qui ont touché le concours sur sa globalité, les réactions suspectes de google, le page rank ou encore certains parcours originaux.

Le classement final

Sans plus attendre je vous présente le classement final du 30 novembre 2013 (minuit), dernier bien connu de ceux qui fréquentent le forum seo mais peu être moins connu des autres, alors le voici :

– 1er       :  Madinseo.fr
– 2ème   :  Zandit.fr
– 3ème   :  Smni.fr
– 4ème   :  Sopro.fr
– 5ème   :  Etilemullog.com
– 6ème   :  Takatoucliquer.fr
– 7ème   :  Gollumelite2013.tumblr.com
– 8ème   :  Gollumelite1.tumblr.com
– 9ème   :  Facebook.com/gollumelite
– 10ème :  Expertspam.com

Nous retrouvons les meilleurs référenceurs de ce concours, tous dotés de styles et de techniques variés, chacun a  su se faire une place dans le top 10 avec classe, persévérance et stratégie.

Avant tout, j’adresse mes félicitations à tous pour ce beau concours, ce fut pour moi un réel plaisir de suivre l’évolution de chacun ainsi que d’analyser les stratégies employées. Faisons maintenant place aux analyses et conclusions pour mettre nos efforts en évidence et en retirer des avantages scientifiques.

Chapitre 3 : Conclusions Statistiques (6 dernière semaines + 4 semaines)

L’aspect {Master-Site|On-site|Contenu}

Pour cette partie analytique j’ai laissé passer 4 semaines avant de faire un relevé d’informations, afin d’avoir un peu de recul sur les différentes stratégies et sur leur tenue respective dans la durée.

Classement et analyse on-site des 20 premiers ndd le samedi 28 décembre 2013 (15H30)

  1. zandit.fr/ enregistré après le 14 septembre 38 pages indexées (wordpress)
  2. madinseo.fr/enregistré après le 14 septembre 146 pages indexées (wordpress)
  3. etilemullog.com/ enregistré après le 14 septembre 77 pages indexées (pluxml)
  4. expertspam.com/ enregistré après le 14 septembre 13 pages indexées (wordpress)
  5. smni.fr/ enregistré après le 14 septembre 15 pages indexées (wordpress)
  6. takatoucliquer.fr/enregistré après le 14 septembre 152 pages indexées (wordpress)
  7. tumblr.com/‎ enregistré avant  100 000k pages indexées (tumblr)
  8. tumblr.com/enregistré avant 100 000k pages indexées (tumblr)
  9. gollumelite.com/ enregistré après mais invalide 7 pages indexées (wordpress)
  10. ghstools.fr/ enregistré après le 14 septembre 44 pages indexées (solution)
  11. wordpress.com/‎ ‎ enregistré avant 25 pages indexées (wordpress)
  12. univ-bh.com/enregistré avant 36 pages indexées (wordpress)
  13. agence-presse.net/ enregistré avant 532k pages indexées (wordpress)
  14. facebook.com/ enregistré avant 550 000k pages indexées (solution)
  15. facebook.com/ enregistré avant 550 000k pages indexées (solution)
  16. tumblr.com/ enregistré avant 100 000k pages indexées (wordpress)
  17. seocba.fr/enregistré après le 14 septembre 8 pages indexées (wordpress)
  18. wordpresss.com/ enregistré avant 42 pages indexées (wordpress)
  19. gouv.fr/ enregistré avant 4 970k pages indexées (solution)
  20. youtube.com/ enregistré avant 492 000k pages indexées (solution)

Nous retrouvons en tête notre favori {B|Z}andit avec faible total de pages indexées, et n’ayant pas changé de solution web, son nom de domaine est encore porteur d’un wordpress, avec un thème assez bien élaboré. Un rythme de publication modéré avec environ 1 article tous les 2 jours depuis le début du concours. Le thème est assez personnalisé et/ou élaboré, ce qui reflète une certaine qualité technique onsite.

En deuxième position, celui qui fut premier au moment de la fin du concours, dispose d’un nombre de page indexées plus conséquent, une présence donc plus massive mais moins qualitative,  quand on se penche sur les articles nous  remarquons des articles scrapés dotés d’injection de mots clef. Nous pouvons remarquer un thème de base wordpress, peu élaboré.

En 3ème position nous remarquons un blog avec plusieurs dizaines de pages indexées, et peut être une des rédactions les plus qualitative, avec des articles intéressants, d’analyse sur le concours, que j’ai personnellement prit plaisir à découvrir, le tout publié sur du pluxml, la solution sans base de données connue pour sa légèreté, dernière qui à été l’objet d’un certain travail d’adaptation pour l’occasion.

Sur la 4eme place nous pouvons découvrir un expert, avec seulement 5 publications, un très faible nombre de pages indexées, le tout déployé sur un wordpress, thème très basique, peu optimisé, en clair notre expert spam ne mise pas sur le contenu, mais plutôt sur le spam, quoi de plus logique ?

Notre 5eme participant propose un site assez simple, avec une seule page sur le sujet du concours, page bien fournie qui contient de nombreuses références populaires, une vidéo, du contenu plutôt classique sur le sujet, mais notons surtout une énorme quantité de liens sortants vers différentes pages wikipédia.

Pour ce qui est des autres participants, nous remarquons une dominance de blog wordpress, chacun dotés de quelques articles sur le sujets, nous remarquons aussi de nombreux profils sociaux, contenant tous un peu de contenu autour du mot clef du concours ainsi que des interactions sociales plus ou moins artificielles.

L’approfondissement {Master-Site|On-site|Contenu}

Afin de poursuivre l’analyse on-site des 20 premiers participants je vous laisse découvrir un second tableau avec des rapports d’analyse (audit) on-site, les notes ainsi qu’un lien vers les audits en détail.

1) Zandit.fr/ : 78,3/100  Rapport Complet
2) Madeinseo.fr/ : 66,3/100 Rapport Complet
3) Etilemullog.fr/ : 71,5/100 Rapport Complet
4) Expertspam.com/ :  75,9/100 Rapport Complet 
5) Smni.fr/ : 70,7/100 Rapport Complet
6) Takatoucliquer.fr/ : 62,9/100 Rapport Complet 
7) Gollumelite1.tumblr.com/ : 63,9/100 Rapport Complet
8) Gollumelite2013.tumblr.com/ : 63/100 Rapport Complet
9) Gollumelite.com/ :  72,9/100 Rapport Complet
10) Ghstools.fr/ Erreur l’outil d’audit ne fonctionne pas
11) Gollumelite.wordpress.com/ : 66,6/100 Rapport Complet
12) Univ-bh.com/ : 75/100 Rapport Complet 
13) Gollumelite.agence-presse.net/ : 71,8/100 Rapport Complet
14) Facebook.com/pages/Gollumelite-Officiel/ Erreur l’outil d’audit ne fonctionne pas
15) Facebook.com/gollumelite.fr/ Erreur l’outil d’audit ne fonctionne pas
16) Dromardennesgollumelite.tumblr.com/ : 54,3/100 Rapport Complet
17) Seocba.fr/ : 75,3/100 Rapport Complet
18) Gollumelitegay.wordpress.com/ : 65,9/100 Rapport Complet
19)  Data.gouv.fr/Com…/Gollumelite : 66,8%/100 Rapport Complet 
20) Youtube.com/watch?v=xWony22pEFE : 68,3/100 Rapport Complet  

 

Nous pouvons remarquer différent niveau d’optimisation on-site, pour chacun des concurrents, à noter cependant que pour avoir des données un minimum fiable il est recommandé de recouper plusieurs outils d’analyses statistiques de ce genre. Ici je propose un balayage rapide pour approfondir l’analyse on-site, dans un but d’analyse générale.

 

L’aspect {Net-linking|Link-Building|Off-site}

 

Classement et analyse off-site des 20 premiers ndd le samedi 28 décembre 2013 (15H30)

  1. zandit.fr/                      Url Rank : 74 | Dom Rank : 59    | BL: 5.8 K     |  Ref Dom 1.3 K
  2. madinseo.fr/‎                Url Rank : 81 | Dom Rank : 48    | BL: 81 K       |  Ref Dom 3.5 K
  3. etilemullog.com/         Url Rank : 10 | Dom Rank : 50    | BL: 3.3 K     |  Ref Dom 117
  4. expertspam.com/        Url Rank : 17 | Dom Rank : 45     | BL: 23          |  Ref Dom 13
  5. smni.fr/                         Url Rank : 17 | Dom Rank : 52     | BL: 5.9 K     |  Ref Dom 275
  6. takatoucliquer.fr/       Url Rank : 13 | Dom Rank : 45    | BL: 8.5 K     |  Ref Dom 303
  7. **.tumblr.com/            Url Rank : 35 | Dom Rank : 42    | BL: 463        |  Ref Dom 135
  8. **.tumblr.com/            Url Rank : 32 | Dom Rank : 42    | BL: 347        |  Ref Dom 35
  9. gollumelite.com/         Url Rank : 14 | Dom Rank : 40    | BL: 110         |  Ref Dom 13
  10. ghstools.fr/                   Url Rank : 13 | Dom Rank : 47    | BL: 161 K      |  Ref Dom 294
  11. **.wordpress.com/‎     Url Rank : 20 | Dom Rank : 41    | BL: 63           |  Ref Dom 19
  12. univ-bh.com/‎               Url Rank : 29 | Dom Rank : 41    | BL: 4.4 K      |  Ref Dom 104
  13. agence-presse.net/** Url Rank : 29 | Dom Rank : 63    | BL: 1.5 K      |  Ref Dom 145
  14. facebook.com/**         Url Rank : |  Dom Rank : 0       | BL: 0             |  Ref Dom 0
  15. facebook.com/**         Url Rank : 26 | Dom Rank : 100  | BL: 293        |  Ref Dom 49
  16. **.tumblr.com/           Url Rank : 55  | Dom Rank : 51     | BL: 6.1 K      |  Ref Dom 882
  17. seocba.fr/                     Url Rank : 13  | Dom Rank : 44     | BL: 23          |  Ref Dom 6
  18. **.wordpresss.com/   Url Rank : 14 | Dom Rank : 21      | BL: 2.2 K     |  Ref Dom 52
  19. **.gouv.fr/**                Url Rank : 0  | Dom Rank : 0         | BL: 0            |  Ref Dom 0
  20. youtube.com/**           Url Rank : | Dom Rank : 0        | BL: 0             |  Ref Dom 0

Notre premier, Ninja linker d’exception, Black {B|Z}andit, nous offre une belle quantité de backlinks, mais ce qui est surtout notable si l’on consulte son profil de backlinks en détail, c’est la qualité des cibles sur lesquelles il à posé ses liens. Nous remarquons des backlinks sur des sites d’une autorité inégalée, personne sur le concours n’a su poser des liens si forts d’autorité, hormis ceux qui l’ont suivi bien sûr ! Nous remarquons un ratio de backlinks / ref dom qui a été dilué sur par rapport aux 4 premières semaines de concours, et bien évidement quelques backlinks de masses ont été générés durant le rush final, cependant, ces mêmes backlinks probablement automatisés sont eux aussi d’une qualité assez remarquables. Pour moi zandit restera le meilleur ninja linker de ce concours, et de très très loin.

Notre second madinseo, est lui aussi force de proposition (de backlinks) un référenceur qui ne fait pas dans la dentelle, bien au contraire, c’est le volume de liens qui aura été la plus grosse carte abattue par ce participant. Cela lui aura valu une pénalité en début de concours, mais il a finalement réussi à reprendre les premières places, à la tête de plusieurs dizaines de milliers de liens. Ce participant a su finir premier dans le timing du concours, même si dans la durée c’est plutôt la seconde place qui lui a collé à la peau.

Notre 3eme aujourd’hui (5ème au jour J) est le joueur de mot etilemullog qui a trouvé un équilibre raisonnable entre backlinks manuels et automatiques. Nous avons remarqué une sorte de mimétisme sur zandit, avec beaucoup de liens de notre favori qui ont été exploités en second temps, mais aussi une génération de backlinks à la fois qualitative  mais aussi quantitative sur la durée. Ce ndd à montré une belle ascension au rythme des derniers jours du concours.

Le 4eme aujourd’hui, un mois après la fin du concours est un expert, l’expert spam de notre concours, et bien évidement il a prit soin de cacher ses backlinks de masse (entre nous il y a de quoi quand on observe la qualité des liens) ainsi sur mon tableau (ci dessus) on ne voit apparaitre que très peu de backlinks, mais je vous laisse le soin de regarde sur ahref la redirection qui dissimule la partie caché de l’iceberg, un spam massif qui explique en grande partie le positionnement de ce participant, étant donné la faible quantité de contenu qu’il a publié sur son site. Il sera intéressant de voir si ce site supporte le prochain passage de penguin. Notez que ce participant a volontairement partagé sa stratégie plus en détail sur le forum seo (accès lvl 1 minimum = inscrit + présentation).

Notre 5ème au classement de ce jour est un spécialiste du network en herbe, un référenceur que nous connaissons bien, qui lui non plus ne fait pas dans la dentelle. Il est celui qui à reçu les redirection du précédemment bien connu devenir-bh, doté lui même d’un spam très massif et pas moins puissant. Il sera intéressant de voir si ce site supporte le prochain passage de penguin. Notez que ce participant a volontairement partagé sa stratégie plus en détail sur le forum seo (accès lvl 1 minimum = inscrit + présentation).

Pour résumer la situation sur les 15 autres participants, nous remarquons globalement des quantités de backlinks allant de plusieurs centaines à plusieurs milliers de liens pour généralement entre 1/3eme et 1/6eme de refering domains. Notez aussi que plusieurs compte facebook se sont positionnés sans aucun backlink direct vers les pages concernée.

 

Conclusion du chapitre

Ce chapitre qui arrive 1 mois après la fin du concours permet de mettre en évidence clairement les stratégies qui ont fonctionnées et celle qui sont moins puissantes. Je remarque surtout l’éfficacité du net-linking, sans forcement négliger le on-site. Ceux qui ont su se démarquer n’ont pas négligé le contenu, qu’il soit massif ou qualitatif peu importe, il en a fallu des articles pour sortir du lot. Avec notre expert spam qui pourrait représenter une exception, 5 articles (pauvres) et une stratégie presque exclusivement basée sur une 301 + spam massif, pensez vous qu’il soit encore possible de ranker durablement en négligeant totalement le contenu ?

Prenons pour exemple le premier (aujourd’hui et durant 90% du concours) zandit. La meilleure note en matière d’optimisation onsite, le meilleur url rank, le meilleur domain rank, les plus beaux backlinks en termes de trust flow et citation flow, des domaines ciblés de qualité en terme de Page Rank ou d’autorité. Pour ce qui est des quantités de contenu zandit est dans la moyenne, en termes de qualité il nous a fourni des articles pour le moins lisibles et pour le mieux distrayants – amusants. Il a longtemps été celui qui portait le meilleur ratio backlinks-ref dom, autrement dit : un net-linking riche, varié et de qualité. Sa domination sur le concours a été flagrante durant toute la période définie, il est pour moi un beau modèle en terme de stratégie à adopter en référencement : l’équilibre pertinent et crédible, entre contenus et netlinking. Cet exemple prouve  met en nuance le coté facultatif de l’aspect social en influence sur le ranking. Le facteur de ranking social existe t’il réellement ? Ne représente  t’il pas peut être qu’un verrou crédibilisant sur le long terme (et optionnel) ?

Je penses que le concours met aussi en valeur la faiblesse du moteur de recherche sur l’aspect net-linking, en observant les profils ahref des 2 premiers on remarque immédiatement la sensibilité de google coté net-linking, que cela soit qualité ou quantité, si les liens sont dark automatisés (donc massifs) ou savamment posés (donc plus puissants trustés),  ca rank sans trop faire de manière dans les serps. Zandit et Madinseo se sont démarqués durant ce concours, et ils ont représentés, il me semble, les deux puissances du  link-building, respectivement chirurgicale et brute. Est ce que le net-linking chirurgical sera durable en terme de ranking factor contrairement au net-linking brut ?

Ce que j’attends avec impatience c’est le prochain passage de penguin, la seule boué de secours arme de google contre le net-linking dit : abusif. Lorsque l’animal sera passé, nous verrons bien qui tient et qui tombe avec ce genre de stratégie. Ce fameux penguin est la seule nuance qui peux faire pencher la balance en défaveur d’un net-linking soit massif soit poussé en matière de compétence Ninja-Link.

 

Conclusion du concours

Je vais débuter la conclusion du concours avec un phénomène étrange qui c’est produit durant le concours, raison pour laquelle je n’ai pas rédigé de billet de la 4eme semaine jusqu’à présent. Il se trouve que vers le 5ème semaine jusque la 8éme semaine (le concours durait en tout 10 semaines) les serp (pages de résultats) ont été bloquées, plus aucun nom de domaine ne sortaient, les 2 premiers du moment (zandit et takatoukliquer) restaient en premières places et une flopée de 18 facebook tumblr et autres pages youtube meublaient le reste du top 20. Après 3 semaines de blocage les pages ont eu l’air de se débloquer et le concours a continué de nous en apprendre sur l’algorithme de google. Est ce que google est intervenu spécifiquement sur la serp du concours ? Est ce plutôt un blocage mécanique du à l’apparition rapide et massive de nombreuses pages sur un mot clef naissant ?

Au delà de ce premier phénomène étrange, un second phénomène étrange c’est produit, cette fois quand au page rank, nous le savons tous, il y a quelques semaines le page rank à (enfin) été mis à jour. Cependant j’ai remarqué très tôt qu’aucun des sites  du concours n’avait prit de page rank. Enregistrement après le 15 septembre et apparition de nombreux backlinks en tout genre après le 15 septembre pour chacun des noms de domaines concernés. J’en ai donc déduis que cette mis à jour était « réchauffée » et assez vite d’autres ont partagés mon avis sur le forum et ailleurs. Pourquoi google nous livre une mise à jour du Page Rank périmée ? Une latence stratégique ?

Pour conclure définitivement, j’ai vraiment apprécié le spectacle technique, chaque participant a montré, comme je l’ai dit précédemment, un style original, des stratégies innovantes, cela fut très rafraîchissant scientifiquement et j’ai pris un grand plaisir dans le travail analytique que j’ai entrepris pour faire honneur à ces participations. Je tiens donc à formuler encore une fois mes remerciements les plus sincères à chacun, et je vous donne rendez vous en 2014 pour une nouvelle autopsie collective de notre Search Engine préféré .

Le message est simple, vous pouvez choisir de suivre les vidéos de Matts Cutts (un agent communication) et lui faire confiance aveuglément, sinon vous pouvez préférer rejoindre la première communauté black hat, grey hat et white hat (seo complet pour résumer) de France et poursuivre les recherches concrètes, seule voie pour décrypter de manière tangible les fonctionnements du moteur de recherche le plus riche du monde.

Jaffaar

Concours Seo 2013 : Chapitre 2 – Vision Métrique Globale

Un concours seo se déroule dans les pages des moteurs de recherche depuis maintenant un peu plus d’un mois. Après 2 semaines de concours j’ai écrit « contact analytique primaire« , le chapitre 1 de mon analyse (biopsie) de la search engine résult page élue. Aujourd’hui je vais donc rédiger le chapitre 2 intitulé : « vision métrique globale« . Dans ce concours, nous sommes nombreux à suivre  les moindres mouvements des noms de domaines classés dans les pages des résultats de recherches, à l’affut du moindre constat empirique à déceler. Pour le premier chapitre j’avais porté l’analyse sur les dix premiers résultats du classement, pour cette seconde analyse je vais élargir le constat aux vingt premiers.

 

Chapitre 2 : Vision Métrique Globale (4 premières semaines)

 

L’aspect {Master-Site|On-site|Contenu}

Comme pour le précédent chapitre nous allons observer les noms de domaines dans leur dimension on-site, les vingt premiers cette fois ci, par contre. Je précise que, par « on-site » j’entends toute la partie web applicative raccordée aux noms de domaines prévus pour ranker et transformer dans un cas client concret. Je vais donc procéder à un check technique et onsite des 20 premiers résultats qui sortent dans le SERP.

Classement et analyse on-site des 20 premier ndd le samedi 19 Octobre 2013 (15H30)

  1. zandit.fr/ enregistré après le 14 septembre 22 pages indexées (wordpress)
  2. takatoucliquer.fr/ enregistré après le 14 septembre 87 pages indexées (wordpress)
  3. devenir-bh.com/ enregistré avant 21,900 pages indexées (wordpress)
  4. twitter.com/ enregistré avant 143 000k pages indexées (solution propriétaire)
  5. univ-bh.com/ enregistré avant 44 pages indexées (wordpress)
  6. tumblr.com/enregistré avant 86 600K pages indexées (solution propriétaire)
  7. tumblr.com/‎ enregistré avant 86 600K pages indexées (solution propriétaire)
  8. facebook.com/ enregistré avant 791 000K pages indexées (solution propriétaire)
  9. facebook.com/ enregistré avant 791 000K pages indexées (solution propriétaire)
  10. doyoubuzz.com/ enregistré avant 2 010K pages indexées (solution propriétaire)
  11.  facebook.com/  enregistré avant 791 000K pages indexées (solution propriétaire)
  12.  facebook.com/  enregistré avant 791 000K pages indexées (solution propriétaire)
  13.  univ-src.fr/ enregistré avant 99 pages indexées (wordpress)
  14.  data.gouv.fr/ enregistré avant 11 300K pages indexées (solution propriétaire)
  15.  travail-emploi.com/ enregistré avant 805K pages indexées (solution propriétaire)
  16.  inagist.com/ enregistré avant 5 960K pages indexées (phpBB)
  17.  veille-duweb.fr/ enregistré avant 295 pages indexées (wordpress)
  18.  gazetaprawna.pl/ enregistré avant 2 740K pages indexées (phpBB)
  19. youtube.com/ enregistré avant 471 00K pages indexées (solution propriétaire)
  20. ax6.fr/‎ enregistré avant 35K pages indexées (wordpress)

Nous retrouvons en tête de classement notre favoris {B|Z}andit avec comme la précédente le nom de domaine qui compte le moins de pages indexées, et n’ayant pas changé de solution web , son nom de domaine est toujours illustré d’un wordpress. Un rythme de publication modéré mais soutenu, avec depuis le début du concours environ 1 article tous les 2 jours.

Nous découvrons un deuxième (dans les deux sens) participant avec un nom de domaine valide (enregistré après le 14 septembre) en deuxième position « cliquez partout ». Une solution des plus classiques encore une fois, wordpress, avec un rythme de publication d’environ 1 article par jour. Cependant il comporte un thème (html) beaucoup plus classique (et basique) que le premier.

Le troisième candidat, c’est fixé, déjà 3eme il y a deux semaines le devenir Black Hat trône, mais hors concours car enregistré il y  a  bien trop longtemps. Une seule publication sur le mots clef visé pour le concours de référencement à été publiée sur ce nom de domaine. Nous avons ici affaire à  une stratégie largement axée sur l’ancienneté et la génération de backlinks.

Le 4eme est notre 2eme du premier chapitre. Dans ce premier contact je rappelais le positionnement officiel en rapport aux villes, nous notons un rythme lent de publication, mais régulier tout de même. Ce compte publie des brèves d’actualité plus ou moins en liens avec les villes. De plus nous pouvons voie que ce twitter lie un master site parlant des villes connectées sur le web.

Nous remarquons le 5ème du classement, site raisonnable en contenu de qualité moyenne s’est positionné assez facilement après les 2 première semaines de concours. Ce site comporte peu de liens sortants, un authorship et il faut aussi constater qu’il est un ancien participant du penguinzophren. Coté technique c’est une solution encore classique  : un wordpress, plutôt basique cette fois point de vue configuration.

Pour ce qui concerne les autres participants, nous pouvons remarquer une forte dominance des comptes de profils sociaux, avec des publications souvent en duplicate mais fréquentes. Nous remarquons aussi d’autres wordpress optimisés de manières diverses (catégories, keyword stuffing, short posts) qui se mélangent avec les publications sociales.

 

L’aspect {Net-linking|Link-Building|Off-site}

Comme pour le premier chapitre nous allons passer globalement à l’analyse des backlinks et du net-linking . Je vais lister les 20 premiers du classement pour élargir un peu le spectre d’analyse par rapport au premier chapitre. Je vais donc faire un relevé des backlinks et des référents pour chacun des 20 premiers participants, et enfin je commenterai les 5 premiers avec les informations que j’ai à disposition plus précisément.

Classement et analyse off-site des 20 premières pages le samedi 19 Octobre 2013 (15H30)

  1. zandit.fr/ 497 Backlinks | 198 Refering Dom
  2. takatoucliquer.fr/269 Backlinks | 82 Refering Dom
  3. devenir-bh.com/**** 73K Backlinks | 5K Refering Dom
  4. twitter.com/**** 61 Backlinks | 1 Refering Dom
  5. univ-bh.com/ 363 Backlinks | 108 Refering Dom
  6. ****.tumblr.com/438 Backlinks | 145 Refering Dom
  7.  ****.tumblr.com/347 Backlinks | 125 Refering Dom
  8.  facebook.com/**** 6 Backlinks | 1 Refering Dom
  9.  facebook.com/**** 132 Backlinks | 45 Refering Dom
  10.  ****.ax6.fr/321 Backlinks | 4 Refering Dom
  11.  doyoubuzz.com/**** 0 Backlinks (ou inconnu)
  12.  facebook.com/**** 0 Backlinks (ou inconnu)
  13.  facebook.com/**** 0 Backlinks (ou inconnu)
  14.  univ-src.fr/**** 25 Backlinks | 9 Refering Dom
  15.  data.gouv.fr/****  0 Backlinks (ou inconnu)
  16.  travail-emploi.com/**** 0 Backlinks (ou inconnu)
  17.  inagist.com/****  0 Backlinks (ou inconnu)
  18.  veille-duweb.fr/ 347 Backlinks | 87 Refering Dom
  19.  gazetaprawna.pl/****  0 Backlinks (ou inconnu)
  20. youtube.com/**** 0 Backlinks (ou inconnu)

Données obtenues sur https://ahrefs.com/

Nous pouvons remarquer que notre favori à continué sur sa lancée, avec des backlinks de qualité, un travail manuel, l’art du ninja link parfaitement illustré aie-je entendu au labo, un ratio refdom/backlinks en augmentation, probablement encore un signal positif. Toujours environ 50% des ancres qui sont optimisées, quoi que dilution oblige, ce pourcentage soit en légère baisse.

Le deuxième du classement est un nouveau, il est classé 2eme depuis peu de temps, cependant il rodait avec de multiples pages en première et deuxième page de résultat depuis un moment (jusqu’à 7 Urls  indexée en deuxième page + 1 url en première). Un net-linking proche de celui du premier, de la qualité, du trust, du ninja link bien maitrisé encore une fois.

La stratégie du 3ème n’as pas énormément changé, génération massive de backinks, nous pouvons cependant noter une dilution prononcée des ancres générées. L’ancre principal reste autour des 20%, les reste des parts répartis sur des ancres annexes ou junk. Malgré les gros volumes de backlinks sur ce cas le ratio refdom/backlinks est plutôt bas.

Notre 4ème, ce compte twitter, compte encore environ 1 millier d’abonnés, (augmentation d’une centaine environ) de tweets et retweets réguliers aussi. Il semblerait que ce participant axe sa stratégie sur l’acquisition de trust via une sélection sémantique administrative, mais très peu de backlinks. (1 seul domaine référent sur le compte).

Notre Université Black Hat favorite, en cinquième place, décorée d’une deuxième place sur le penguinzophren, fait son grand retour un an après, avec un bon équilibre contenu/net-linking. Un rythme de publication correct et une stratégie de net-linking plutôt qualitative. Un ratio refdom/backlinks un peu plus faible que les deux premiers est observable, avec environ 1 ref dom pour 3 backlinks.

Nous remarquons rapidement les deux tumblr qui zonent autour de la 6ème place et pour lesquels un net-linking assez massif a  été déployé. Mais aussi deux comptes facebook, celui de la « ville officielle » avec peu de backlinks devant celui du « moov » qui lui c’est vu générer quelques centaines de liens.

Conclusion du chapitre

Avant toute chose il faut noter quelques détails contextuels. Durant ces deux dernières semaines, google a  sortit une mise à jour de penguin (version 5.2.1) et un nouvel animal dans son bestiaire : le colibri. De ce fait, nous avons pu remarquer plusieurs phénomènes particuliers. Comme la chute du nom de domaine valide du participant « made in seo » suite au passage de penguin, le quasi million de résultat sur le mot clef du concours qui n’est resté visible que quelques heures ou encore les pages de résultats hésitantes que nous avons remarqué. Dernière qui semblait faire des retours en arrière et en avant très fréquents sur de courtes périodes.

Ensuite, comme pour le premier chapitre, je vais remarquer quelques vérités empiriques que j’observe, mais encore une fois je ne pose que quelques pierres, j’aimerai qu’une vraie analyse collective se produise, et qu’à la force du nombre nous puissions pousser les analyses à leur paroxysme et de tirer ainsi de plus complètes conclusions.

  • Le premier est toujours sur le meilleur ratio ref dom/backlinks (1/2).
  • Ce même premier publie du contenu sur une fréquence correcte et maintenue stable dans la durée.
  • Notre favoris dispose aussi du plus petit nombre de pages indexées.
  • D’un point de vue net-linking et contenu le 2ème est très proche du 1er sur beaucoup de points.
  • Le deuxième a tout de même quelques signaux moins positifs, comme le ratio ref/bl.
  • Le troisième force sur les liens et n’as pas été touché par penguin
  • Le troisième est un nom de domaine avec pas mal d’ancienneté.
  • Le 4ème tente un hack du lexique administratif, si je puis dire.
  • Globalement les méthodes d’acquisition du trust semble être les plus efficaces.
  • Notez le trust des plateformes sociales ainsi que le trust transmis via les backlinks.
  • Notez aussi le trust généré via le contenu, directement ou indirectement (backlinks).
  • Visiblement la masse et la qualité des backinks s’avèrent largement encore pondérées.
  • Tous les sites participants ont le mots clef dans la title
  • beaucoup de sites comportent de multiples fois l’occurrence entre : title, meta-desc et url

Pour conclure ce deuxième chapitre je vais continuer mon propos sur le partage, j’espère que nous serons nombreux pour poursuivre cette analyse des serp collectives, afin de mettre à jour nos connaissances des moteurs de recherche et de leur fonctionnement. Vous l’aurez donc compris, les commentaires sont fortement bienvenus !

Concours Seo 2013 : Chapitre 1 – Contact Analytique Primaire

Un concours de référencement, organisé pour toute la communauté SEO francophone, se déroule dans les pages de résultats des moteurs de recherche depuis déjà 2 semaines. Ce concours est organisé avant tout pour l’analyse et l’appréhension des méthodes de classement. L’objectif premier étant de concourir ensemble dans une adversité (SEO) volontaire, et de pouvoir, ensuite, recouper les informations (empiriques) obtenues, de les lire et même de les décrypter. Enfin nous pourrions nous approprier les connaissances obtenues, les exploiter et finir par les maîtriser. Il y a beaucoup de demandes en matière de référencement et acquisition de trafic, mais nous constatons que peu d’offres ne sont pas déceptives sur le marché. Certains disent que le savoir ne doit pas être partagé. D’autres pensent que nous avons « du pain sur la planche » et que nous devrions nous organiser et nous entraider.

Le Prélude

Je vais commencer par regarder en arrière, le 2 septembre nous annoncions le concours seo 2013 sur 4 forums SEO français importants : Seosphère, Code seo, Veille seo et Scripts seo. C’est cette page qui sert de sujet officiel quant à ce dernier concours. Rapidement quelques personnes ont annoncé leur participation au concours et des équipes se sont formées. Les stratégies ont été élaborées, certains me les ont partagé es (dans un but critique et analytique) d’autre les ont gardées secrètes, certains partageront au fil du concours, d’autres ne partageront peut-être pas, mais (un grand « mais ») nous n’avons besoin que de ceux qui partageront, pas de plus , seulement ce qu’il faut.

Le « nous » que j’emploie est un « nous » peu relatif (le moins possible) qui tente d’englober les intérêts communs du plus large groupe de personnes possibles. La grande question du partage de connaissances fait particulièrement crisser les claviers en ce moment, dans la sphère seo, il me semble, voici donc une rédaction expressive et appréciable de Loic Hélias sur le sujet, ainsi que de nombreuses prises de positions pertinentes en commentaires sur la même question. Mon avis personnel étant proche de celui que je lis sur ce billet et ses commentaires dans la quasi-unanimité, je vais ajouter que le partage doit être sain d’intention et réciproque et que comprendre la définition des mots « respect » et « reconnaissance » avec celle du mot « partage », pourrait aider à le mettre en pratique.

Les noms de domaines ont été lancés dans les pages des moteurs de recherches depuis mi-septembre, deux semaines sont passées, nous pouvons relever sur un des principaux moteurs 25K résultats sur le mot clef inventé du concours. Il sera donc l’heure pour moi d’ouvrir un chapitre, le premier. Chapitre que j’intitulerai : Contact Analytique Primaire. Un constat logique des mécanismes fonctionnels primaires de classement dans les SERP, que nous allons tenter de comprendre dans une biopsie collective des Search Engine. Analyser le premier contact de notre flopée de noms de domaines confronté aux algorithmes de classements des moteurs de recherche.

Chapitre 1 : Contact Analytique Primaire (2 premières semaines)

L’aspect {Master-Site|On-site|Contenu}

Nous parlons d’éléments primaires, nous allons donc poursuivre dans ce sens et commencer par observer les dimensions « on-site » de nos 10 premiers noms de domaines. Je précise rapidement que, par « on-site » j’entends toute la partie web applicative raccordée aux noms de domaines prévus pour ranker et tranformer dans un cas client concret. Ainsi, je vais faire un check technique et onsite des premiers résultats qui sortent dans le SERP.

Classement et analyse on-site des 10 premier ndd le samedi 28 Septembre 2013 (20H00)

      1. zandit.fr/ enregistré après le 14 septembre 15 pages indexées (wordpress)
      2. twitter.com/ enregistré avant 762 000k pages indexées (solution propriétaire)
      3. devenir-bh.com/enregistré avant 22k pages indexées (wordpress)
      4. facebook.com/ enregistré avant 2 640 000k pages indexées (solution propriétaire)
      5. 123siteweb.fr/enregistré avant 13 k pages indexées (solution propriétaire)
      6. tumblr.com/ enregistré avant 427 000k pages indexées (solution propriétaire)
      7. tumblr.com/enregistré avant 427 000k pages indexées (solution propriétaire)
      8. agence-presse.net/ enregistré avant 468k pages indexées (wordpress)
      9. agence-presse.net/ enregistré avant 468k pages indexées (wordpress)
      10. forum.ubuntu-fr.org/ enregistré avant 813k pages indexées (fluxBB)

Nous pouvons remarquer que le nom de domaine le plus récent est en tête, {B|Z}andit, c’est aussi celui qui a le moins de pages indexées, une solution logicielle plutôt classique dans le métier, wordpress, un bon rythme de publication rédactionnelle avec environ un article tous les deux jours, des articles de contenu, même léger il y a derrière chaque article quelques idées. De plus notre favori navigue en tête de classement depuis le début du concours.

Le compte twitter, 2eme, est quasiment automatique, il publie beaucoup de retweets et des petits quart de brèves, 140 caractères, vous connaissez twitter avec techniquement la solution logicielle du propriétaire de ce réseau social bleu (clair). Ce compte apparaissait furtivement en 7eme position et plus les 12 premiers jours du concours. Il sort soudain du lot avec cette 2ème position. Une ligne édito axée sur l’aspect administratif du mot clef.

Le troisième candidat, le devenir Black Hat, est, tout comme le premier, en tête de serp depuis le début du concours, un wordpress également, cependant enregistré il y a longtemps. Il compte plus de 20K pages indexées. En termes de contenu un seul article a été publié, article correctement fourni, fond de qualité avec des références sur l’origine du mot clef plutôt.

Pour les suites, les profils ressemblent, dans ces quelques grandes lignes, aux deux précédents profils, social et wordpress, que sont le compte twitter et le devenir-BH précédemment cités, le 2ème et le 3ème. Les tumblr ont très peu de contenu,l’agence de presse dispose de quelques articles et extraits rss tissés entre plusieurs sous domaines. Beaucoup de style edito, news et humour. Tous les participants du top 10 ont placé au moins une fois le mot clef dans la balise title.

 

L’aspect {Net-linking|Link-Building|Off-site}

Le fameux, le backlink, vendu avec une idée ou sans, précis ou parfois impertinent, du précieux plan, aux packs généreux, le backlink et le seo c’est une vieille histoire. Quant aux problématiques de partage, j’ajoute simplement que le web2.0 a été une sorte de révolution du web , nous sommes tous d’accord, donc ne vous inquiétez pas, des plans backlinks c’est une peu comme l’herbe ou le blé qui poussent, cela fleurit chaque matin n’est ce pas ?

Place aux chiffres :

Classement et analyse off-site basique des 10 premieres pages le samedi 28 Septembre 2013 (20H00)

      1. zandit.fr/ 212 Backlinks | 88 Refering Dom
      2. twitter.com/**** 29 Backlinks | 1 Refering Dom
      3. devenir-bh.com/‎**** 27.000 Backlinks | 2600 Refering Dom
      4. facebook.com/**** 33 Backlinks | 14 Refering Dom
      5. ****.123siteweb.fr/48 Backlinks | 18 Refering Dom
      6. ****.tumblr.com/ 58 Backlinks | 26 Refering Dom
      7. ****.tumblr.com/ 151 Backlinks | 51 Refering Dom
      8. ****.agence-presse.net/ 0 Backlinks (ou inconnu)
      9. ****.agence-presse.net/ 0 Backlinks (ou inconnu)
      10. forum.ubuntu-fr.org/**** 0 Backlinks (ou inconnu)

Données obtenues sur https://ahrefs.com/

Le premier dispose d’un nombre de backlinks plutôt équilibré par rapport aux autres, 212 backlinks, le tout sur un ratio de 50% des ancres environ en exact match (sur le mot clef, et sur le mot clef + un espace au milieu). L’autre moitié est utilisée en dilution, avec diverses ancres plus ou moins connexes. Nous remarquons 90% des backlinks en DoFollow, essentiellement du not site wide, avec un bon ratio de domaines référents. Pour résumer, après une brève analyse, j’observe surtout un net-linking qualitatif.

Le second, dispose de très peu de backlinks sur un seul domaine référent, de signaux sociaux faibles, mais nous pouvons cependant remarquer un millier d’abonnés twitter pour une trentaine de tweets publiés en 2 semaines. Une dimension net-linking peu développée pour le moment, apparemment.

Le 3ème, 27000 backlinks sur 10 fois moins de domaines référents, avec près 30% de ses backlinks qui portent l’ancre exact match du concours, un dilution récente a été observée avec des pourcentages plus faibles sur des ancres comme le nom de domaine + l’exact match.

Les 7 noms de domaines suivants se sont vu déployer des faibles quantités de backlinks, plus ou moins qualitatifs, les ancres sont globalement variées et dans l’ensemble les types de backlinks aussi. Les dilutions avec l’url exact du domaine + le keyword sont assez fréquentes. Nous constatons que la majorité des sites ont un ratio backlinks / refering dom d’environ 30% alors que le premier profite du meilleur ratio, dernier un peu plus élevé. A noter que Le 3eme, qui domine pourtant depuis le début (top 3, gros yoyo avec le premier) dispose d’un ratio faible, 10% environ.

 

Conclusion du chapitre

Pour conclure cette première approche, je ne vais rien conclure du tout, puisque l’objectif de ce chapitre reste que tous participants au concours mais aussi analystes de passage, puissent construire ensemble et dans la diversité des forces intellectuelles une analyse de données communes et contrôlées. Je vais donc souligner rapidement, quelques faits que je trouve importants. De plus le concours débute à peine, c’est un constat de données qui se dresse pour l’instant. Quelques pierre d’un édifice que le groupe pourrait construire.

  • Le nom de domaine le plus récent est premier, et il domine depuis le début (yoyo avec devenir-bh).
  • Ce premier nom de domaine dispose du plus petit nombre de pages indexées.
  • Ce premier nom de domaine dispose du meilleur ratio de domaines référents
  • Le deuxième ne dispose que de peu de backlinks , et de peu de contenu. (twitter)
  • Le troisième (ce jour là) est en duel avec le premier depuis le début
  • Ce troisième dispose du plus de backlinks dans le top 10 mais d’un faible ratio bl/ref dom (10%)
  • Tous les noms de domaines du top 10 ont le mot clef en balise title
  • Content + Scraping + Ninja Link, Mass Linking ou encore Social Baiting + Stealth Network ?

Qu’en pensez vous ? Je copie ici une citation et la conclusion de quelqu’un d’autre (à peine reformulées) :

Oui au partage des connaissances, beaucoup plus mesuré sur le partage des expériences.

Respectez-vous, respectez-nous, soyez humble, notre métier évolue tous les jours et ça c’est un bien.

Je suis pour le partage des connaissances et dans une certaine mesure des expériences, mais je conçois que les stratégies précises, basées sur les précédents, peuvent être partagées de manière selectives voire même vendue en tant que services de réflexion, complexes, propres à chaque cas. Il me semble que c’est le métier de SEO non ?

Comment effectuer une recherche de BackLink efficace avec ScrapeBox ?

Afin de trouver un spot de backlink dans une démarche de Ninjalinking, vous avez besoin de deux choses à intégrer dans votre scrapper. Le Scrapper le plus connu à l’heure actuelle ScrapeBox :

  • Un footprint
  • Un mot clé

Pour le mot clé, ce n’est pas dans cet article que je vais vous aider. Par contre pour le footprint que vous ordonnerez à Google, pas de miracle. De la recherche et encore de la recherche ! Pour ceci, je vous propose une méthodologie, certes, longue et peut être ennuyeuse, mais qui vous fera dégotter un grand nombre de footprint, qui seront peut être même souvent unique. Imaginez … Un océan de footprint, rien que pour vous !

Bon, trêve de papotage, je vous donne la technique que j’ai imaginé pour trouver des dizaines de footprint :

Apprenez dès maintenant à utiliser ScrapeBox en seulement 2 heures

scrapebox formation
Interface utilisateur de ScrapeBox

 

Afin d’apprendre à utiliser SrapeBox, vous avez deux solutions. Soit, vous prendrez quelques mois d’utilisation afin de bien savoir manier ScrapeBox de façon optimale et efficiente, et donc ainsi vous perdrez des heures d’apprentissage afin de bien le configurer, le tester et obtenir de bons résultats. Ou bien vous pouvez apprendre à utiliser ScrapeBox en seulement deux heures grâce à une formation en SEO, au travers de notre module ScrapeBox de la SEO Ranking Skills qui a déjà fait ses preuves depuis plusieurs années et qui est régulièrement mise à jour en fonction des besoins actuels d’un SEO souhaitant devenir performant.

bouton formation

 

NinjaLinker : Un grand bravo à la Team pour cette journée Marathon SEO. Les modules sont très bien construits et les supports d’accompagnement très pratiques pour se remettre dans le bain de la formation. J’ai particulièrement apprécié le module « Génération de contenu » et la démo sur le Tool de Jaffaar qui plus est, avec un accès offert (1 an) après formation. Le module de cloacking avec le script que Jaffaar nous a concocté est juste une tuerie. Quand à la formation GSA, je peux vous dire quelle est très complète et vous permettra de gagner (au moins) une Dizaine d’heure d’autoformation sur le Tool. Et en prime un E-Book détaillé pour vous aider à bien maitriser GSA. (Je pense que c’est le seul de cette qualité 100% Français). Bref, un grand merci à tous les intervenants ! Je vous recommande de faire la journée complète de formation en (BH) SEO avancée pour tout ceux qui souhaitent apprendre en accéléré. L’investissement est minime par rapport au retour que vous pourrez en tirer ! Source

Stuart : Super journée hier, encore merci aux formateurs pour nous avoir transmis plein de bons plans et d’outils à utiliser. C’était vraiment au top, on en prend plein la figure et maintenant le plus gros du boulot reste à faire : tester leurs outils et astuces et mettre en pratique nos stratégies SEO ! Je pense en effet que ça va m’ouvrir beaucoup de portes (et en fermer à mes concurrents, je pense à la classe php cloaking camouflage de Jaffaar entre autres) Bref si vous avez l’impression de patauger un peu en SEO et qu’il vous manque quelques ficelles pour faire un grand pas en avant, je ne peux que vous conseiller cette formation ! Source

Découvrir de nouveaux footprint, un océan d’opportunité de BackLink ?

Une recherche de mot clé efficace peut donner de très bons résultats sur ScrapeBox puisque vous fouillerez dans les profondeurs de Google le moindre forum, ou profil sur votre thématique. Cependant, rechercher de nouveaux footprint peut vous permettre, bien que ce soit plus long, d’élargir votre champ de recherche à d’autres CMS, qui ne sont peut être même pas connus par les autres SEO. De plus, n’étant pas, ou peu exploités, vous aurez plus de facilité à poser votre lien sur ces CMS puisque les administrateurs n’auront pas l’habitude de voir des personnes poser un lien sur leur site, du fait de la méconnaissance du CMS par les SEO.

De quoi aurez vous besoin pour trouver des footprint ?

Pour commencer, il vous faut une liste de CMS. Oui, parce que pour ceux qui ne connaissent pas énormément les footprint, on se base sur un CMS, un moteur de blog, de forum etc qui a pour particularité de mettre en DoFollow certaines entrées utilisateur comme des messages ( c’est le cas par exemple du moteur de forum phpBB ou même fluxBB ), des commentaires ( exemple à ne pas prendre puisqu’ils sont tous spammés depuis le temps mais le plugin de commentaire CommentLUV mettait le site web des visiteurs en DoFollow ). Dans le module ScrapeBox de notre formation SEO Ranking Skills ( bouton au dessus ), nous vous fournissons des footprint ou il y à déjà matière à travailler.

Donc, pour que ce soit réellement intéressant, il faut qu’il y ait un minimum de quelques centaines ( et je dis bien MINIMUM ) de sites qui l’utilisent afin de tomber sur des sites thématisés et avec un bon Trust.

Comment chercher des footprint à l’aide de votre cerveau et de votre clavier ?

Une fois que vous aurez une bonne liste de CMS, pas de sorcellerie ou d’incantations latines, installez les un par un et testez les en tentant de placer un lien sur le champ site web d’un profil utilisateur ( et n’utilisez pas votre profil admin, certains CMS placent seulement les liens des admins en DoFllow ), dans des commentaires, profils, messages, livre d’or … enfin bref, tout ce que l’utilisateur peut placer.

Bon, je vous l’accorde, ce sera très long avec une liste de 200 CMS, mais si vous vous faites un planing par exemple de 20 CMS / semaine, en un peu plus de 2 mois, vous aurez fait votre liste de 200 CMS, et ce travail vous rapportera bien plus tôt, car vous allez récupérer des footprint avant les 200 bien sûr ! Donc, en testant 3 CMS par jour ( c’est assez rapide ), en 2 mois, vous pourrez dire que le ninjalinking, c’est dans la poche ! Pas mal non ?

 

Comment trouver des footprint lorsque vous êtes développeur ?

Bon, ça c’était la technique un peu longue mais tout aussi profitable que la prochaine que je vais vous donner, malheureusement, la méthode la plus rapide mais qui vous demandera un petit brainstorming de développement et quelques centaines de lignes de code est assez rapide à expliquer. Vous développez un script qui vous permettra de rechercher les entrées utilisateurs en DoFollow. Donc en recherchant par exemple si dans chaque fichier, par exemple il y  » rel=’dofollow’  » ainsi que ‘Site web :’, ou même « Site internet : ». Enfin bref, si vous êtes développeur, je n’aurai pas grand mal à vous faire une image.

C’est tout pour aujourd’hui, j’espère que cet article vous aura plu, et surtout vous aura fait gagner en efficacité dans votre travail de ninjalinking. Si vous voyez d’autres méthodes, pourquoi pas les ajouter dans l’article ? Bien sûr, votre nom sera cité. Une bonne soirée à vous !

Elena squirting piss from her ass Feel good fucking Two blondes share a cock Hardcore cowgirl fucking