4. #seocamp 4
Gephi
▪ Logiciel pour l’algorithmie et les statistiques
▪ Utile en SEO pour analyser la structure d’un
site
▪ Attention, logiciel instable et dur à prendre
en main
Kezako ?
5. #seocamp 5
Les autres outils ?
Cocon.se
Screaming Frog (menu visualization)
Etc.
15. #seocamp 15
Crawler son site
• Screaming Frog Spider SEO
• URL internes : Onglet Internal => Export
• Liens internes : Menu Bulk Export => All inlinks
16. #seocamp 16
Importer les données du crawl dans Excel
Conserver dans le fichier Excel:
• L’URL (renommer « Adress » en « ID »)
• Le status code de la page, c’est-à-dire l'entête HTTP de l'URL (200, 404, 301...)
• Le nombre de liens internes reçus par l’URL
• Autres données selon vos objectifs
Enregistrez le fichier en .csv (le nommer nodes.csv)
Fichier avec toutes les URL > nodes.csv
Importer les liens internes dans Excel
Conserver dans le fichier Excel:
• La source
• Destination (renommer en « Target »)
• Ancre de texte (renommer en « Label »)
Enregistrez le fichier en .csv (le nommer edges.csv)
Fichier avec tous les liens > edges.csv
Nettoyer ses données
Coucou Excel
17. #seocamp 17
• Créez un nouveau projet et enregistrez-le
• Puis allez dans l'onglet « Laboratoire de données », cliquez sur « Importer feuille de calcul » et sélectionnez votre fichier
nodes.csv.
• Vérifiez que vos données dans la colonne « Label » s'affichent bien (sinon changez la liste déroulante d'encodage)
• Sélectionnez « En tant que table > Table des nœuds »
Importer les URL > Fichier nodes.csv :
Importer les liens internes > Fichier edges.csv :
• Dans le laboratoire de données, cliquez de nouveau sur « Importer feuille de calcul » et répétez l'opération sur le
fichier edges.csv
• Sélectionnez « En tant que table > Table des liens » cette fois-ci
• Ne pas cocher « Créer les nœuds manquants »
• Cliquez sur « Terminer »
Importer ses données
Coucou Gephi
20. #seocamp 20
Les possibilités avancées
▪ L’emplacement des liens
▪ Le glissement sémantique
▪ Le passage de GoogleBot
▪ Une analyse plus poussée des backlinks
▪ Etc.
Gephi, un logiciel qui peut prendre en compte :
21. #seocamp 21
Les possibilités
avancées
Les liens d’un domaine
d’activité
▪ En rouge mon site
▪ En bleu mes concurrents
▪ En noir les domaines référents
(avec leur Trust Flow)
24. #seocamp 24
• Environ 450 pages
• Site non optimisé pour le SEO
• Bon historique de contenus et backlinks
Jeux vidéo – Site N°2
Les sites audités puis optimisés
• Environ 60 pages
• Le site a été imaginé dans un objectif SEO
• Il possédait un début de visibilité dans les SERPS
Sport de raquette – Site N°1
25. #seocamp 25
Les étapes clés de nos tests
20 Février
• Choix des sites à optimiser
25 février
• Réalisation des premières
analyses: crawl et Gephi
Du 1er au 5 mars
• Optimisation de l’arborescence et
du maillage interne
• Correction des principaux
problèmes techniques
Nous n’avons pas touché à un seul contenu des sites !
26. #seocamp 26
Visualisation N°1
Les objectifs :
• Analyser la diffusion du PageRank en interne
• Détecter les pages inutiles recevant du PageRank
• Détecter d’éventuels problèmes techniques
Sur le graphique :
• Ronds blancs à bleus = pages internes
• Ronds verts = liens qui sortent du site
Site N°1 : les analyses
27. #seocamp 27
Visualisation N°2
Les objectifs :
• Visualiser les pages qui reçoivent des liens externes
• Recalculer le PageRank sur ces pages
Sur le graphique :
• Ronds bleus = pages internes
• Ronds jaunes = liens externes
• Ronds verts = liens qui sortent du site
Site N°1 : les analyses
28. #seocamp 28
Visualisation N°3
Les objectifs :
• Quels sont les nœuds avec les chemins les plus courts entre
tous les autres nœuds ?
Comment faire ?
• Statistique « Plus court chemin > Betweenness centrality »
Sur le graphique :
• Plus le rond est gros, plus c’est un nœud central
Site N°2 : les analyses
29. #seocamp 29
Visualisation N°4
Les objectifs :
• Quelles sont les nœuds qui possèdent des liens mutuels
(ceux dans une structure en silos) ?
Comment faire ?
• Filtre > Liens mutuels
Sur le graphique :
• Un rond sans lien => Une URL en dehors de la structure
Site N°2 : les analyses
30. #seocamp 30
Visualisation N°5
Les objectifs :
• Quelle est la catégorisation de 1er niveau de chaque nœud ?
Comment faire ?
• Screaming Frog > Custom Extraction > CSSPath > ID du bloc
du chemin de navigation
• Traitement dans Excel
Sur le graphique :
• La couleur = la catégorie de 1er niveau
Site N°2 : les analyses
31. #seocamp 31
Site N°1 : les optimisations effectuées
Suppression de tous les
liens/pages inutiles:
▪ Suppression des pages avec
des contenus pauvres
▪ Suppression des liens inutiles
présents dans le code source
▪ Correction des liens en
redirection 301
Nettoyage SEO
Optimisation du PageRank
▪ Création de liens internes vers
les pages stratégiques (ancres
optimisés)
▪ Maillage interne entre les pages
proches sémantiquement et de
manière réciproque
▪ Maillage interne depuis les pages
recevant des liens externes
▪ Suppression des liens qui diluent
la diffusion du PR
PageRank
32. #seocamp 32
+20%
Trafic SEO
Entre les périodes :
• 03/02 au 28/02
• 01/03 au 26/03
Top 5
+11 mots
clés
TOP 5 Google FR
01/03 > 5 mots clés
26/03 > 16 mots
Sur 25 mots clés stratégiques
+4
positions
Sur le mot clé générique de
la thématique
Le mot clé générique est passé de la
7ème à la 3ème position
Site N°1 : résultats SEO
33. #seocamp 33
Site N°1 : évolution du PageRank interne
+8% à 10%
De PageRank sur les pages
stratégiques
-86%
Sur la page mentions légales
34. #seocamp 34
Site N°2 : les optimisations effectuées
Suppression de tous les
liens/pages inutiles:
▪ Correction des 301 et 404
internes et externes
▪ Suppression des contenus et
liens inutiles (pages de tags,
lien direct vers le flux RSS, etc.)
Nettoyage SEO
(again)
Optimisation du maillage
▪ Accueil avec catégories de 1er
niveau et le dernier article
▪ Plan de site avec uniquement
catégories de 1er niveau
▪ Menus en silos automatique
(afficher/masquer les sous-
menus automatiquement)
▪ Catégories : afficher les sous
catégorie ou les articles
▪ Articles : liens vers contenus de
même niveau
Automatisation
technique