Link alla registrazione del webinar: http://bit.ly/AndreaCardinaliWebinarSEOcmsSEMRush
Se è vero che “content is the king” è altrettanto vero che anche il contenuto migliore del mondo, se non correttamente analizzato e indicizzato dagli spider dei motori di ricerca, non si posizionerà mai.
In questo speech parlo delle caratteristiche che un buon Cms deve avere per garantire una corretta indicizzazione e di come organizzare i contenuti per ottenere un’indicizzazione ottimale.
Nel dettaglio parlerò di indicizzazione, crawl budget, crawl rate, linking interno architettura informativa, google hummingbird e rank brain.
Slide della presentazione per la SEMrush WebStudy Marathon sul SEO Tecnico di Giovedì 15 Settembre 2016.
Questa presentazione è stata caricata la prima volta qui: http://www.slideshare.net/semrush_webinars/semrush-webstudy-marathon-seo-tecnico-cms-in-ottica-seo-per-i-contenuti
Professional WordPress Development with Vagrant - Andrea Cardinali - WordCam...
CMS in ottica SEO per i contenuti - SEMrush WebStudy Marathon - SEO Tecnico - CMS in ottica SEO per i contenuti
1. CMS IN OTTICA SEO PER
I CONTENUTI
Andrea Cardinali
@andreacardinali
SEMRUSH WEB STUDY MARATHON – SEO TECNICO – 15 SETTEMBRE 2016
2. ANDREA CARDINALI
• DEVELOPER & CONSULENTE SEO
• PROGRAMMO DA PIÚ DI 10 ANNI
• LAVORO CON WORDPRESS DA 7 ANNI
• DIRIGO UNA WEB AGENCY DAL 2014
SEMrush WebStudy Marathon - SEO tecnico - @andreacardinali
3. DI COSA PARLERÓ
1. PERCHÉ L’INDICIZZAZIONE È
FONDAMENTALE PER UN BUON
POSIZIONAMENTO.
2. COME MIGLIORARE L’INDICIZZAZIONE
3. COME (RI)STRUTTURARE UN SITO E I
CONTENUTI IN OTTICA SEO.
4. QUAL È IL CMS MIGLIORE IN OTTICA SEO.
5. LA SEO È MORTA E CONTENT IS THE KING?
15. 1° - LINKS
2° - CONTENUTI
3° - RANK BRAIN
Dichiarazione di Andrey Lippatsev un Search Quality Senior Strategist at Google (Ireland)
durante un Hangout in data 23/03/2016
20. INDICIZZAZIONE (SEMPLIFICATA)
• Il software che chiamiamo CRAWLER è costituito in realtà da
un insieme di software: scheduler, fetcher e parser.
• Il processo di CRAWLING avviene in più fasi:
• Un URL estratto da un DATABASE DI URL viene passato allo
SCHEDULER
• Lo SCHEDULER pianifica QUANDO il/i FETCHER devono
scaricare la risorsa
• Il FETCHER scarica la risorsa e la salva in un database
• Il PARSER legge la risorsa dal database
• Estrae i link in essa contenuti
• Aggiorna il link graph e passa i contenuti testuali della risorsa
all’INDEXER
• L’INDEXER crea i riferimenti tra la risorsa e le parole/frasi in
essa contenute
23. CRAWL BUDGET
• Il CRAWL BUDGET è il numero di richieste
massimo effettuato dal crawler in un dato
periodo di tempo (es. mese)
• Il CRAWL BUDGET dipende da:
• Popolarità del sito (inbound link)
• Velocità del sito
• Freschezza dei contenuti
• Links interni (architettura informativa)
• Dimensioni del sito (n° di url)
24. "
"
@andreacardinali
IL CRAWL RATE È IL NUMERO DI RICHIESTE
EFFETTUATE DAL CRAWLER IN UNO SPECIFICO
LASSO DI TEMPO
(ES. RICHIESTE/ORA O RICHIESTE/GIORNO)
27. CONSEGUENZE DELL’OTTIMIZZAZIONE
• IL LINK GRAPH INTERNO È CALCOLATO IN
MODO PIÙ ACCURATO E LE PAGINE
RANKANO MEGLIO
• FINIAMO PIÙ VELOCEMENTE IN SERP
• IN SERP COMPAIONO LE INFORMAZIONI
AGGIORNATE
28. C.B.O. - TAKE AWAY
• VELOCIZZARE IL SITO
• «PARLARE» LA LINGUA DEL CRAWLER
• Utilizzare gli status code corretti
• Robots.txt
• SEGNALARE AL CRAWLER LE NUOVE PAGINE
E QUELLE MODIFICATE
• Sitemap
• SEGNALARE AL CRAWLER LE PAGINE PIÙ
IMPORTANTI
• Ridurre il numero di url
• Modificare l’architettura informativa
30. PERCHÉ VELOCIZZARE IL SITO
• SE IL SITO È LENTO IL CRAWL RATE
DIMINUISCE
• LA VELOCITÀ DA PRENDERE IN
CONSIDERAZIONE È SOLO QUELLA DEL
SERVER
• (CIRCA IL 10/20% DELLA VELOCITÀ DI
CARICAMENTO TOTALE)
• HARDWARE + WEB SERVER + DATABASE + CMS
31. VELOCIZZARE IL SITO (SERVER SIDE)
• ABILITARE COMPRESSIONE GZIP
• UTILIZZO MARIADB INVECE DI MYSQL
• CACHING DEL CODICE
• OPCODE CACHE (DA PHP 5.5 È INCLUSA DI DEFAULT)
• USER CACHE (es. APCU o MEMCACHED)
• GESTIONE DEGLI STATUS CODE A LIVELLO DI
WEB SERVER (INVECE CHE TRAMITE WP)
• UTILIZZO DI VARNISH
• UTILIZZO PHP 7
• ATTENZIONE A FIREWALL, MOD_QOS E
MOD_BANDWITH
32. 3 – UTILIZZARE LE
SITEMAP XML
COME MIGLIORARE L’INDICIZZAZIONE
33. SITEMAP XML
• È un elenco delle pagine presenti nel sito
• Può essere testuale o xml (xml è da
preferire)
• Esistono software per crearla (meglio
utilizzare i plugins del CMS)
• Max 50.000 url per sitemap
• Utilizzare unicamente la proprietà «lastmod»
perché la proprietà «changefreq» viene
ignorata
38. SITEMAP XML - TIPS
• E’ POSSIBILE CREARE PIÙ SITEMAP
• Si identificano più facilmente i potenziali problemi
d’indicizzazione
• CREARE UNA «HOT» SITEMAP CON GLI ULTIMI
AGGIORNAMENTI
• Pingare i Crawler
• http://www.google.com/webmasters/sitemaps/ping?sitema
p=[URL SITEMAP]
• http://www.bing.com/webmaster/ping.aspx?siteMap=[URL
SITEMAP]
• È POSSIBILE SEGNALARNE LA PRESENZA NEL
ROBOTS.TXT CON L’ISTRUZIONE SITEMAP:
• Aggiungerla in Google Search Console / Bing
Webmaster Tools
39. 4 – RIDUCI IL
NUMERO DI URL
COME MIGLIORARE L’INDICIZZAZIONE
40. 5 – LIMITA IL
NUMERO DI LINK
PRESENTI NELLA
PAGINA
COME MIGLIORARE L’INDICIZZAZIONE
41. RIDURRE IL NUMERO DI URL – TAKE AWAY
• Eliminare / consolidare i contenuti duplicati
• Utilizzare Redirect 301 e 410
• Dove possibile aggiornare i links verso la nuova risorsa
• Eliminare i contenuti obsoleti e/o che non ricevo
traffico (e reindirizzarli)
• Monitorare gli errori 404
• Attenzione alle url con parametri GET
• Utilizzare rel=«canonical»
• Se necessario escludere i parametri da Google Search
Console (CON CAUTELA)
• Il meta «robots» nell’<head> può impedire
l’indicizzazione ma fa sprecare comunque budget
• Se necessario si può utilizzare il robots.txt (CON CAUTELA)
53. RIDISTRIBUIRE LINK JUICE – TAKE AWAY
• CREA MENÙ CONTESTUALI
• LIMITA I LINKS NEL BOILER PLATE
• Preferisci i link nel contenuto a quelli nel boiler
plate
• I link nel footer hanno tendenzialmente meno
valore
• ELIMINA I LINK NON CLICCATI / INUTILI
• UTILIZZA l’attribuzione avanzata dei link in
GOOGLE ANALYTICS per identificarli
• SITEMAP HTML
54. 3 - OTTIMIZZA IL
LINKING INTERNO
(RI)STRUTTURARE UN SITO IN OTTICA SEO
59. LINKING INTERNO – TAKE AWAY
• UTILIZZA I BREADCRUMBS
• PREFERISCI I LINK ALL’INTERNO DEL
CONTENUTO A QUELLI NELLE AREE
«STATICHE»
• NOINDEX,FOLLOW SULLA PAGINAZIONE DI
ARCHIVI E CATEGORIE
• Valuta se bloccare la paginazione con robots.Txt
(usare con cautela)
• RIMUOVI TAG CLOUD
67. PAGINE ARCHIVIO – TAKE AWAY
• Decidi quali sono gli archivi che vuoi far
comparire in serp
• Vuoi posizionare tag, categorie o entrambi?
• Rendi "unico" l’archivio
• Mostrare solo l’excerpt dell’articolo (non lasciarlo
generare a WP, scrivilo)
• Aggiungi un contenuto unico nella prima pagina
dell’archivio e Nascondilo nelle sottopagine
• Elimina i duplicati
• Aggiungi il noindex,follow nelle sottopagine degli
archivi
68. 5 - CONSOLIDARE I
CONTENUTI
(RI)STRUTTURARE UN SITO IN OTTICA SEO
74. REINDIRIZZAMENTI – TAKE AWAY
• I REINDIRIZZAMENTI VANNO MANTENUTI A TEMPO INDETERMINATO
(FINCHÉ ESISTE IL SITO)
• PREFERIRE IL .HTACCESS AD UN PLUGIN
• QUANDO POSSIBILE INSERIRE I REDIRECT NELLA SEZIONE
<VIRTUALHOST> (O NEL FILE .CONF DI NGINX)
• LE URL PRESENTI NELLA SITEMAP NON DEVONO ESSERE DEI
REDIRECT
• SE NON È POSSIBILE FARE UN REINDIRIZZAMENTO 1:1 CREARE IL
REDIRECT PER GLI URL CON LINK E/O CON BUONE POSIZIONI IN SERP
75. 6 – RISCRIVERE I
CONTENUTI
(RI)STRUTTURARE UN SITO IN OTTICA SEO
79. BEST PRACTICES PRE HUMMINGBIRD
• Identificare insiemi di keywords con piccole
varianti. La pagina parla di un solo
argomento.
• Evitare la keyword cannibalization creando
una pagina per ogni keyword
• Testi di lunghezza limitata data la specificità
della keyword.
80. BEST PRACTICES POST HUMMINGBIRD
• Google è in grado di capire l’intento (e la
semantica) della ricerca e quindi una stessa
pagina ora può comparire anche per diversi
gruppi di keywords.
• Unire più pagine in una unica in modo da
creare un documento più ricco di
informazioni
• I testi aumentano conseguentemente di
lunghezza e diventano più esaustivi
• I testi lunghi richiedono una strutturazione
migliore
83. PIRAMIDE ROVESCIATA
• inizia dalla conclusione, comunicando
nell’immediato la notizia e le informazioni
che il lettore sta cercando
• aggiungi i dettagli più importanti
• concludi con informazioni ancora più
dettagliate, inserendo ove necessario uno o
più link in uscita che permettano al lettore di
approfondire l’argomento.
http://www.olos.com/web-copy-e-piramide-rovesciata
85. CARATTERISTICHE MINIME DEL CMS IDEALE
• Modifica rapida dell’architettura informativa
• Avere url parlanti (seo friendly)
• Poter gestire i meta (title,description, robot,
canonical)
• Veloce
• Sitemap xml
• Gestione dei 404, 410, redirect
• Non deve generare contenuti duplicati
86. IL CMS IDEALE DEVE
PERMETTERE DI
CONCENTRARSI
SULLA
REALIZZAZIONE DEL
CONTENUTO
93. GIORNO 1: WORKSHOP SEO WORDPRESS +
WORKSHOP SEO JOOMLA
GIORNO 2: CONFERENCE SUI PRINCIPALI CMS
http://bit.ly/SEOcms2017-preview
2° EDIZIONE – MAGGIO 2017
2 GIORNI: 2 WORKSHOP + CONFERENZA