2. Qui sommes nous ?
Emmanuel BENMUSSA Benjamin BUSSIERE
e.benmussa@gmail.com b.bussiere@gmail.com
Depuis Mai 2009 : NextIdea
Directeur du pôle expert SEO Depuis Décembre 2009 : NextIdea
Directeur de projet SEO
2005 - 2009 : Aposition
VisibilityManager 2005 - 2009 : Aposition
Consultant SEO Directeur du Département
« VisibilityManagement »
2000 - 2005 : WelcomeOffice Consultant
Directeur technique du site B2B.
1999-2005: LYCOS EUROPE
1993-2000: W3 Communication Chef de projet
Fondateur (création de sites)
2
4. Un KPI : c’est quoi ?
Savoir compter c’est bien….
Savoir ce qu’on compte c’est mieux !
(Source Nicolas G.)
Les KPI (Key Performance Indicators) sont des
indicateurs d’aide décisionnelle. Elles permettent de
quantifier, de détailler une analyse pour en conclure
l’effet d’un action donnée.
Pour le SEO : Les indicateurs permettent
d’analyser les données existantes, et les
évolutions dans le temps permettent de
suivre l’impact des actions menées
4
5. Un KPI est-il tout le temps
exact ?
Un KPI est rarement sans faille, Il comporte souvent un biais. C’est pourquoi il faut
comprendre la méthode de récolte des données et les traitements apportés. Ce biais
n’est pas un problème, à partir du moment où l’on le connait et qu’on le prend en
compte
Exemple :
La commande « site: » donne le nombre de pages indexées dans Google
FAUX
Plus le volume est important, plus le nombre donné est approximatif, mais cela
reste une estimation à suivre
Les données analytiques sont fiables à 100%
FAUX
Les méthodes de récoltes ne sont pas toujours fiables, et les traitements sont
différents selon les outils. Sans compter les erreur d’implémentation des
marqueurs 5
6. Prendre en compte le
fonctionnement d’un moteur
Comprendre le fonctionnement
et l’évolution des moteurs
• Des critères de structure ou
d’indexation sont souvent plus
important que le Nième critère de
ranking déclaré ou supposé
• Les évolutions critères de
l’algorithme de Google ne sont pas
les seuls indicateurs à suivre.
• Les évolutions des produits des
moteurs et de l’architecture ont
souvent bien plus d’impacts
Source : The Anatomy of a Large-Scale Hypertextual Web Search Engine
6
http://infolab.stanford.edu/~backrub/google.html
7. Un premier indicateur avancé:
le besoin client
• Pourquoi ne suis-je pas premier sur « plombier » ?
• Mon site parle de nucléaire… J’aimerais bien être premier sur
« Ecologie » ?
• Combien de ventes puis-je espérer de mon site, si je fais appel
à vous ?
• Je veux savoir exactement quel sera mon trafic naturel dans 6
mois ? dans un an ?
Quelque soit le type d’interlocuteur (client ou N+1 chez
l’annonceur), la définition des besoin est le premier
7
indicateur…
8. Un second indicateur avancé:
le contexte
Site Ecommerce
Ventes KPI
Site media
Pages vues KPI
Site en création
Indexation KPI
Site en refonte Conservation
de l’existant
KPI
Objectifs en fonction du volume existant % du trafic
moteur
KPI
… Autres besoins spécifiques
A déterminer KPI
8
9. Des KPI à destination des
décideurs
• Position sur des • Volume / • Nombre de
Transformation
Positionnement
Trafic
mots clés objectifs pourcentage de transformation
• Nombre de trafic en (vente, inscription,
positions sur une provenance des web call back; etc)
base large (longue moteurs de • Taux de rebond
traine) recherche • Pages vues par
• Typologie des • Volume par visites (site media)
concurrents sur les expression • Vente indirecte (à
mêmes expressions • Volume par page, 30 jours post view./
• Evolution des SERP par type de page post click)
en fonction des • Volume par source • Taux d’implication
expressions (web, image, news, du SEO dans la
(localisation, news, etc…) vente (gestion multi
adwords, …) leviers)
• etc…
• etc… • etc…
9
10. Des KPI à destination des
Structure
référenceurs
Contenu
Linking
• Hébergement, • Volume de liens • Volumétrie
environnement entrants sur la page • Quel type de
• Localisation • Volume de liens contenu (produit,
• Profondeur de page externes média, texte,
• Pages crawlées par • Ancres des liens catégorie,
les moteurs • Qualité des information
• Pages actives (au domaines de • Contenu chaud/
moins une visite par l’environnement Contenu froid
les moteurs) • Liens à partir des • Type et source du
•… réseaux sociaux contenu, unicité du
•… contenu
•…
10
11. La définition des KPI
Passe par des besoins..
… s’inscrit dans un plan global …
… demande des mesures …
... et des outils pour les suivre dans le temps
11
14. Première étape, choix des
expressions cibles
Logiquement, les premières expressions sont
déterminées en fonction du contexte.
Pertinence • Trafic potentiel généré par la requête
Pertinence
• Nombre de résultats dans les moteurs
Difficulté • Nombre de concurrents positionnés
Existant • Présence et position du site
Importance Requêtes Difficulté
• Importance stratégique
Importance • Transformation
Les premiers critères de choix des requêtes Existant
sont pertinents. Ce travail peut être fait
manuellement et via de nombreux outils
Etape essentielle mais insuffisante ! 14
15. La suggestion d’expressions
permet d’élargir le champ
L’intégration de Suggestion et des requêtes
associées permet de définir des
correspondances entre les requêtes génériques
et celles tapées ensuite par les internautes.
Deux occasions d’être présent 15
17. Les KPI de positionnement
Les données de positionnement sont
souvent trop ou trop peu prises en
compte
• Suis-je certain d’être exhaustif sur
les expressions pour mon site ?
• Les données personnalisées
rendent les données obsolètes les
rapports de positionnement ?
• Combien de requêtes suivre ? Le
top search ? Et le reste ? Outil Nextidea
Malgré ces biais, les outils de visibilité
permettent de suivre le top expressions
17
18. Positionnement sur le top
search
Le suivi de positionnement pour un faible nombre
d’expressions est pertinent, car il donne des
indicateurs sur le top expressions entre 10 et 200
expressions… mais rarement suffisant pour les sites
complexes.
18
19. Visibilité
sur un échantillon TRES large
Pour suivre le positionnement sur un échantillon significatif, plus de 5 millions d’expressions
pour tendre vers l’exhaustivité ! Etudions un site spécifique dans cette base:
Le nombre de positions dans le top 30 • Graphique de répartition des positions :
Un score de trafic en fonction de la position et du Le nombre de position 1-3
trafic potentiel de chacune des requêtes Le nombre de position sur le reste de la page 1
Après la page 1 (Potentiel de trafic )
SEO SEM
Le positionnement sur un volume important donne une
photographie du positionnement.
20. Comparaison du site par
rapport à ses concurrents
Naturel
Le premier intérêt de ces
données est de le comparer
avec les sites concurrents.
Il est important de suivre ses
concurrents directs mais aussi
ses concurrents sémantiques
(sites qui sont positionnés sur
les mêmes expressions)
Payant
Le nombre de positions et le
score de trafic sur une base
importante donne une idée
de la visibilité de son site par
rapport à ses concurrents
21. Un corpus sémantique élargi
par l’étude concurrentielle
Search : SEO
L’étude concurrentielle permet de donner un nouveau critère que le trafic potentiel du mot clé : le nombre
de concurrents présents. Au-delà du trafic cela donne un indice de pertinence des expressions par rapport
à l’univers sémantique du site.
22. Evolution du positionnement
L’évolution des KPI
• En nombre de position,
• En score de trafic
• En position en page 1
• En potentiel de trafic (page 2 & 3)
L’évolution des KPI de visibilité
permet de déterminer l’évolution la
visibilité et le potentiel du site
de les suivre dans le temps et de les
comparer aux sites concurrents
22
23. Mais attention aux évolutions
des SERP*
Attention au positionnement, être en 3ème position ne
donne pas la même visibilité selon les expressions…
3ème position
3ème position
Notre outil de positionnement DI Veille permet d’intégrer
des données de recherche universelles, mais aussi des
expressions catégorisées 23
* SERP : Search Engine Response Page
25. Le suivi de trafic et de
transformation
Il n’y a pas que Google
Analytics dans la vie….
Que les outils soient site
centric (marqueur) ou
user centric (logs), ils ont
des objectifs similaires et
des KPI différents
Source : http://www.matthieu-tranvan.fr/
25
26. La définition des KPI
• Volume de trafic par source
• % de trafic provenant des moteurs de recherche (hors paid search) / % de
trafic par type de source
• Trafic par expression
• Nombre d’expressions différentes rapportant du trafic (expressions suivies,
nouvelles expressions longue traine)
• Type de pages rapportant du trafic
• Nombre d’expressions par page
• Transformation
• Nombre de transformations directes / Ca direct
• CA / nbre de transformation à 30 jours (post click)
• Gestion du multi-levier (taux d’implication d’une campagne sur les
transformations)
• Sortir du CA par mot clé, pour parler de taux d’implication d’une campagne
de search dans les ventes
26
28. Structure technique
Pour la structure, deux types de KPI catégories
peuvent êtres distingués :
• Tout ce qui concerne l’architecture technique du site.
• Tout ce qui concerne la structure du site WEB
Ces deux familles sont fortement liées, mais
généralement ne concerne pas les mêmes équipes
techniques
28
29. Architecture du site
• Même si l’hébergement seul ne représente qu’une part
mineure de l’algorithme, il peut être un véritable frein pour le
reste.
• Avant tout le reste, les moteurs vont analyser les données
génériques réseaux (IP, nom de domaine, environnement, …)
• Exemple : les données sur le (ou les) domaine(s).
• Il ne faut oublier que Google est un bureau d’enregistrement de nom de
domaines (Registrar) et donc a sa disponibilité une base de données
complète.
• Ensuite il va venir récupérer généralement la page d’accueil et
le robots.txt.
• A ce moment, rentre en compte les KPI de temps réponses, de
disponibilité du serveur et des erreurs éventuelles.
29
30. Nom de domaine
• Les principaux KPI concernant les noms de domaine :
• L’ancienneté de nom de domaine
• Plus un domaine est ancien, plus il pourrait être légitime.
• A l’inverse un domaine trop récent, sera surveillé.
• Les mots clés dans le domaine
• Sert aussi bien à l’utilisateur qu’au positionnement
• L’autorité ou confiance du domaine
• Même s’ils sont difficiles de qualifier le Page Rank, Trust et Local Rank
restent des critères importants.
• Les enregistrements nominatifs
• Si certaines informations sont communes à des sites malveillants, il y a
un risque.
• La plateforme d’enregistrement
• Le prestataire de service est peut-être utilisé par des sites frauduleux.
30
31. Architecture
• Principaux KPI sur l’architecture
• Hébergement mutualisé ou dédié
• Un site hébergé en mutualisé risque d’être proche d’un site malveillant.
• Tolérance de panne
• Google Bot va éviter de surcharger un site qui ne répond déjà pas bien.
• Temps de réponse
• Le temps consacré pour récupérer une page est limité. De plus, Google
annonce prendre en compte ce critère dans le positionnement
• Structure du site
• Site statique / dynamique (ex: CMS), en effet si le site est mal géré les
accès aux base de données peuvent freiner les performances.
• Structure des pages
• L’optimisation html des pages, permet des gains pour les utilisateurs
mais aussi pour les moteurs de recherche.
31
32. Architecture : Outils
Quelques exemples d’outils utilisés afin de vérifier ces
éléments.
Pour avoir un historique sur un domaine Netcraft.com
Pour les sites malveillants : Stopbadware.org
32
33. Architecture : Outils
• Google Webmaster Tools
• Speed test
• Yslow
• Webpagetest.org
• …
• Google propose même un module pour Apache 2
• Module Page Speed
• http://code.google.com/speed/page-speed/docs/using_mod.html
33
34. Crawl
• La meilleure méthode afin de connaitre la structure d’un
site, est de simuler le passage de Google Bot à partir de
la page d’accueil.
• Pour ce faire il existe de nombreux crawlers, avec
chacun leur propres KPI.
• Mais il ne faut pas oublier qu’un bon KPI c’est un KPI que
l’on connait et que l’on maitrise.
• En voici une courte démonstration.
34
35. Crawl
• Pour ce faire nous allons utiliser des outils simples
• Xenu's Link Sleuth™
• Xenu, or Xenu's Link Sleuth, is a computer programthat checks websitesfor broken hyperlinks.[1] It is
written by Tilman Hausherrand is proprietary softwareavailable at no charge.(Source Wikipedia)
• Microsoft Excel™
• Ou tout tableur permettant de faire un tableau croisé dynamique.
L’idée est d’ensuite de créer notre propre KPI pour le
SEO.
35
36. Crawl
• Cette étude est faite sur un blog avec peu de pages, pour
simplifier la démonstration
• Mais le principe est bien plus utile et pertinent pour des sites
de plus grande envergure.
• Nous avons donc réalisé un crawl de ce site et ensuite
exporter les données.
36
37. Data Crunching
• Dans le fichier d’export nous avons comme informations:
• Address
• Status-Code Exemple de TCD
• Status-Text Nous allons utiliser les
informations en bleu.
• Type
• Size * Les informations avec un
• Title étoile ne sont pas de base,
mais il suffit de rajouter une
• Nb Title*
formule d’Excel pour l’avoir.
• Date
• Level D’autres calculs peuvent être
réalisés à partir de cette
• Links Out base, tel qu’une
• Links In catégorisation des URL
• Server lorsque le site est très
volumineux.
• Error
• Duration
• Charset
• Description
37
• Nb Description*
38. Data Crunching
• La répartition des pages suivant la profondeur du
site et des codes erreur serveur.
Répartition Url / Code / Profondeur
La répartition des pages
180
par profondeur est un 160
140
bon indicateur.
Nombre d'url
120
Il permet de savoir à 100
80 503
quel niveau se trouve la 60 404
40
plus grande majorité des 20 200
0
pages et détecter les
0 1 2 3 4
incohérences.
Profondeur
38
39. Data Crunching
Deux autres KPI pratiques: les titres et descriptions.
• Avant même d’optimiser ceux-ci page à page, vérifions
leurs présences et leurs cohérences.
Longeur des titres Longeur des textes des descriptions
40
70
35
60
30
Nombre de page
50
Nombre de pages
25
40
20
30
15 Total
20 Total
10
10
5
0
0
0-19 20-39 40-59 60-79
0-29 30-59 60-89 90-119 120-149 150-179 180-209
Nombre de caractères Nombre de caractères
Des titres trop court sont à vérifier Même si la description ne fait pas
d’autant plus si la marque est partie des éléments majeurs dans le
présente à chaque fois. SEO, elle reste tout de même utile.
39
40. Data Crunching
• D’autres informations utiles peuvent être traités tels
que:
• La taille des pages afin de voir si elles ne sont pas trop
lourdes.
• La moyenne du nombre de liens sortant ainsi que les tops.
• Les pages ayant le plus de liens entrants.
• Les liens cassés (il ne faut oublier qu’a l’origine ce logiciel
est pensé pour cela).
• …
D’un point de vue structure Address Links In
http://www.mon-domaine.com/ 103
interne, le poids de la page
http://www.mon-domaine.com/archive 103
« mentions légales » est http://www.mon-domaine.com/tags 103
égal à celle de la page http://www.mon-domaine.com/legalnotice 103
d’accueil. 40
41. Exemple sur un site à gros
volume
Cartographie du site
• La simulation de crawl est encore plus pertinente sur les
sites à gros volumes de contenu.
• Il est nécessaire de classer les pages via une taxonomie
propre. C’est-à-dire par une définition de catégorie et/ou
d’univers. Exemple les pages « produit » dans l’univers « livre ».
Nombre de pages par profondeur
0 1000 2000 3000 4000 5000 6000 7000 Livres
1 DVD
2
3
4
5
Musique
6
7
8 Pages Search
9
10
11
12
13
Notion de profondeur de la page Navigation Hi tech
14 : Nombre de clics à partir de la
15 Navigation musique
16
17 page d’accueil
18
19 Produits
20
21
22
23 Divers
24
25
Taxonomie des pages par univers
41
42. Crawl
• Voici quelques exemples de logiciel permettant de simuler le crawl d’un
moteur.
• AnalogX LinkExaminer
• http://www.analogx.com/contents/download/Network/lnkexam/Freeware.htm
• Screaming Frog SEO Spider
• http://www.screamingfrog.co.uk/seo-spider/
• IIS 7 Web Crawler
• http://learn.iis.net/page.aspx/640/using-site-analysis-to-crawl-a-web-site/
• Certains outils donnent aussi la possibilité d’indexer le contenu. Ce qui
permet de voir comment un moteur voit le contenu de votre site.
• Crawl Anywhere
• http://www.crawl-anywhere.com/get-crawl-anywhere/
• Open Search Server
• http://www.open-search-server.com/fr/ 42
44. Linking externe
Le critère de Page Rank reste aujourd’hui un critère important pour Google.
Même s’il n’est pas suffisant pour acquérir un positionnement, il permet
d’augmenter le volume de crawl. Au-delà de la gestion du Page Rank, l ’étude
du linking doit être pensé comme un environnement
• Nombre de liens
• A partir de quels domaines
• Combien de liens par domaines
• Qualité des liens
• Ancre des liens externes
• Position des liens
• Liens à partir des réseaux sociaux Source : SEO for blogers , matt cutts slide 14
http://www.mattcutts.com/blog/seo-for-bloggers/
• Nombre de mentions
• Vers quel page (homepage ou lien direct)
44
45. Positionnement sur le linking
externe
Les indicateurs de linking sont à suivre dans leur
45
volume mais aussi dans leur qualité
46. Stratégies linking
• Suivre la qualité de son linking pour apprécier
l’environnement… beaucoup de liens mais
beaucoup sites à risque…
• Comprendre la stratégie de ses concurrents ne
garantie pas de pouvoir négocier les mêmes liens
• Le suivi des données doit apporter des stratégies
d’action
• Le suivi qualitatif permet aussi de détailler le retour
utilisateur de votre discours
46
48. Contenu
Le contenu est évidemment le nerf de la guerre. Les
optimisations techniques ne sont qu’un moyen de présenter
un contenu pertinent. C’est ce que les moteurs cherchent à
présenter aux internautes !
• Mais quel type de contenu
• Des catégories, produits, des articles, des posts ?
• Des images, de la vidéo, des lieux ???
• Qualité du contenu
• Contenu crée par des rédacteurs, des journalistes, par des
internautes
• Contenu unique, modifié, reproduit…
• Contenu chaud / froid
48
49. Audit cinétique : Cycle de vie
d’une page offre/produit
•Création de la page •Création du contenu
avec un contenu • Optimisation de la
teasing (Exemple : landing page
« achat IPAD 2 ») •Structure de la page,
•Linking externe intégration dans la
navigation
Anticipation Création
• Conservation du trafic Suppression Modification •Modification du
• Redirection vers la contenu, des rubriques
page la plus pertinente (de la nouveauté au on
going)
•Modification du linking
entrant
50. Contenu dupliqué
• Le contenu dupliqué peut prendre deux formes.
• Le contenu dupliqué dans le site
• De multiple URL pour le même contenu.
• L’intégration d’un moteur de recherche interne, permet de
connaitre les sources.
• Il suffit parfois de voir avec un crawl que certains titres sont toujours
les mêmes.
• Le contenu dupliqué externe au site.
• Base de connaissance commune.
• Reprise de contenu par des partenaires ou non autorisé.
50
51. Contenu externe
• Outils pour trouver le contenu dupliqué à l’extérieur
du site.
• Copyscape.com
• Pour une url donnée
• UN.CO.VER
• http://www.textbroker.com/uncover/
• Pour un texte donné.
51
55. Une mission SEO doit se
penser dans sa globalité
Audit et plan d’action Accompagnement et Collaboration étroite
• Validation de la stratégie et gestion de projets
des objectifs • Une équipe SEO intégrée à
• Priorisation des chantiers l’équipe globale
• Audit technique, sémantique
• Optimisations techniques
et concurrentiel • Une collaboration interne et
• Rédaction des contenus
une intégration des leviers
• Définition des chantiers
marketing et techniques • Recette et suivi de la mise
en production • Partenariat régulier avec vos
équipes internes et
• Plan d’action court et moyen prestataires
terme • Analyse et
reporting projets
56. Les KPI doivent rester des
outils d’aide à la décision
VEILLE
TECHNO.
PLAN REVERSE
D’ACTION ENGINERRING
GESTION DE
SUIVI DES KOI
PROJETS
Les KPI doivent permettre de définir les chantier et
d’en suivre leur impact
57. Les outils peuvent être
utiles…
Mais utilisez le plus performant : votre
cerveau ! 57