Smau - primo anno

633 views

Published on

0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
633
On SlideShare
0
From Embeds
0
Number of Embeds
10
Actions
Shares
0
Downloads
9
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Smau - primo anno

  1. 1. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Come era agli inizi il Posizionamento? Predominanza dei fattori on page – cioè interni - pagine ottimizzate - chiave nel title, keyword, description, body e tutti altri tag - spammare con keyword stuffing - pagin fresca – cioè aggiornata di recente - nessun fattore esterno - links
  2. 2. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ L'arrivo di Google Scavalca subito Altavista - Grazie al PageRank – algoritmo che calcola l'importanza dei link. Riesce subito a dare migliori risultati - Tutti gli altri motori di ricerca, da questo momento in poi, innovano poco e sono costretti ad inseguire Google, usando a volte gli stessi principi con scarsi risultati - Da questo momento in poi i fattori onpage iniziano a diventare sempre meno importanti e Google farà lotta dura allo spam Vediamo le novità e caratteristiche di questi anni dei motori di ricerca e poi approfondiamo Google, che è quello più interessante
  3. 3. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Yahoo! - Ha avuto uno spider sempre lentissimo, aiutato poi dai prodotti comprati da Yahoo vedi delicius o flickr o meglio ancora la sua Directory - Ha dato sempre un peso importante ai backlink proveniente dai documenti della stessa lingua, contanto sempre sulla sua Directory - Ha usato la sua Directory per dare un peso maggiore ai siti dentro - Ha provato a tracciare i click nelle serp per dare un peso maggiore ai documenti più cliccati con scarsi risultati - Usa un filtro antiduplicazione molto scarso, anche se hanno uno studio per individuare i template di siti - Usa un algoritmo simile al TrustRank ma poco efficace. - Per anni il loro sistema di pay per click ha avuto forti guadagni in Italia dagli Spam Engine. Yahoo! Oggi usa quasi tutta la schermata delle serp competitive per piazzare i suoi sponsor
  4. 4. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Yahoo!
  5. 5. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Yahoo! Attenzione alla features di ricerca http://it.search.yahoo.com/info/shortcuts
  6. 6. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Windows Live Search - Sempre molta importanza ai fattori interni, addirittura tanti ai nomi dei file - Molta importanza all'estensione del dominio e alla localizzazione del server. Un dominio .com con server in America, difficilmente scalerà le prime posizioni in Live Italia. - Ha adottato da poco i Quality Rater (vedi dopo ampia slide), con scarsi risultati - Hanno detto che il loro è un motore di ricerca intelliggente, che impara con gli anni - Hanno dato tantissimo peso alla quantità dei link, senza contare la qualità. Infatti se si hanno tanti link da proprie pagine addirittura o da sitispam, si può arrivare primi in serp competitive - Hanno un grosso potenziale ovviamente, Windows, Messenger, Office - Sono arrivati sempre tardi - Combattono pochissimo lo spam
  7. 7. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Windows Live Search: ottimi servizi correlati
  8. 8. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Windows Live Search: ottimi servizi correlati
  9. 9. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Windows Live Search: ottimi servizi correlati - Presto daranno degli strumenti per webmaster - Stanno sfornando ottimi strumenti (anche la visuale 3d delle mappe è bella) - Non riescono a creare servizi per la massa, infatti sono poco usabili. I video ad esempio, sono fatti in modo da non avere un url visuale immediato, è difficile trovare tag e commenti, come è difficile ripubblicarlo sul blog - Windows Live Search oggi è una grande incognita. Grandi potenzialità da anni, grandi annunci da anni, poco traffico, tanto spam, facilità assurda di scalare una serp. Attendiamo
  10. 10. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Ask - Prima del 2005 il suo nome era Ask Jeeves. Aveva la migliore ricerca per immagini Ha la sede Italiana a Pisa. - Nel settembre 2001, Ask Jeeves acquista la tecnologia Teoma. Per esempio, un sito di Cucina salirà di rank se un altro sito dello stesso argomento (o cluster) avrà un link ad esso. Questo algoritmo viene ora chiamato ExpertRank. - 2007. Edison, integrerà quello attuale basato su Teoma. Darà importanza all'esperienza degli utenti (se vi registrate, mantengono tutte le vostre ricerche). Quindi ai siti costruiti per gli utenti. - Useranno sempre Hub, ma estrapoleranno i dati degli utenti che hanno. - Hanno seguito i click nelle serp da anni, cercando di tenere traccia della chiave e del documento linkato, a seconda dei termini - Attualmente lo spider è lento, i risultati non sono male. A volte riesce a restiturire direttamente i siti di Hotel quando cerchiamo Hotel + Località e non i portali come fanno tutti gli altri motori di ricerca.
  11. 11. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Ask: Features http://sp.it.ask.com/it/docs/about/sitefeatures.shtml
  12. 12. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google - Dall'estate 2003 la Google Dance (aggiornamento degli indici ogni mese) diventa giornaliero (Everfluxx) - Inverno 2003. Florida. Introduce lo stemming (mangio, mangiare, mangiato) e si inizia la penalizzazione per la sovraottimizzazione - 2004. HillTop: calcola i link in base alla tematicità - 2005: Penalizzazione dei contenuti duplicati. Inserimento dei Quality Rater - 2005: aggiornamento del PageRank in tempo reale, solo la barretta ogni tre mesi - 2005/2006: Trustrank, il Bad Rank. PhraseRank e poi Big Table - 2007: Google Web History, Features e Google Universal Search
  13. 13. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google ed il PageRank - Il PageRank è stato progettato per dare importanza ai link, pensando questa come una risorsa utile, si è sviluppato il concetto che attraverso un link la pagina A da un voto alla pagina B. - All'inizio ha funzionato giusto per scavalcare tutti gli altri motori di ricerca in termini di qualità, poi gli spammer hanno iniziato ad abusare, ma tanto Google ha subito preso le misure (Trust, Quality ect ect) - Il PageRank è stato misurato per gli utenti da una barretta che si aggiorna ogni 3 mesi. Però questo è fuorviante. Il PageRank non va da 0 a 10, ma da 0,1 al valore massimo che si raggiunge, e poi riportano loro i dati in punteggio decimale. Quindi quello che si vede, oltre ad essere vecchio, non è quello reale. E' ovvio che se il valore massimo sale di molto, un Pagerank 5 può passare a 4 senza che il documento abbia perso un solo link, anzi, addiruttura, può scendere anche se si è aumentata la link popularity. Meglio lasciar perdere la barra. - Con il passare del tempo il suo valore è sempre diminuito, sorpassato dal Trustrank. Diventerà sempre meno importanta, ma oramai la barretta verde è un così forte strumenti di attrazione, che non sapremo mai quando non verrà più usato del tutto il PageRank :-)
  14. 14. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google ed i Contenuti Duplicati - Duplicato: si ma in che modo? Quanta % è stata duplicata? E la struttura? Sono state copiate solo frasi? - Quando viene effettuata la query, i documenti che vengono visti come duplicati o cloni, finiscono nei risultati supplementari - Ancora non scatta la penalizzazione, questa scatta in modo semi-automatico, tramite i Quality Rater - Compaiono nelle serp i documenti che hanno un Trustrank maggiore - I diversi motori di ricerca hanno un loro filtro o più filtri tutti diversi. Solo Google oggi usa i duplicati per la penalizzazione, questo è un vantaggio. - Si può essere penalizzati con solo una pagina, con più pagine o bannati.
  15. 15. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ TrustRank - Applicazione 2005/2006. Il principio è di premiare i siti di qualità e penalizzare quelli di bassa qualità - Conta molto la fiducia e qualità del documento linkante, oggi è molto molto importante. Questo algoritmo ancora è poco discusso nei forum, merito di non avere una barretta verde. - Il principio è che un sito di qualità non linkerà quasi mai uno di bassa qualità e quindi assegnando una fiducia ad alcuni documenti si riesce a premiarli passando poca forza ai documenti di bassa qualità - Si sono scelti molti Hubs da dove è partita la fiducia. Molto probabilmente Dmoz, Yahoo, .edu, . Gov e alcuni recensiti manualmente - Si è visto che lo spam è iniziato a diminuire in modo notevole
  16. 16. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Bad Rank e altri - Se il TrustRank funziona, perchè non usarlo all'inverso? - Le pagine si spam linkano molte volte altre pagine di spam. Quindi è facile assegnare un punteggio negativo a queste pagine (vedi link exchange in automatico) - Attenzione quindi quando linkiamo le risorse :) Topical Trustrank - Premiare i link a tema per combattere lo spam sui Blog/Forum autorevoli - Attenzione quindi a partecipare a Blog o Forum abbandonati per mettere link
  17. 17. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google PhraseRank - E' una piccola evoluzione perchè analizza come gli utenti usano le Frasi nel web per determinare quanto un sito web è rilevante o no. - Trova frasi correlate basandosi su documenti a tema. Quindi se molti documenti parlando di Aereoporto Fiumicino contengono la frase Voli Roma si aspetta di trovarli in altri documenti. - Quindi, la query non viene scomposta in parole ma in frasi. Forum per Webmaster non è forum+per+webmaster ma “forum webmaster”, “per webmaster”. - Facilità di individuare i file duplicati ed i testi fake con generazione automatica. - L'algoritmo impara da solo man mano che trova frasi - Non pare essere attivo, ma penso che lo vedremo presto
  18. 18. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Big Table http://www.giorgiotave.it/forum/179851-post1.html http://labs.google.com/papers/bigtable.html Nicola Nbriani del Forum GT ha avuto uno scambio di email con Jeffrey (l'ideatore) ed ha riportato tutto sul Forum. BigTable è un sistema di archiviazione, una tabella di grandi informazioni. Viene usata per la raccolta dei dati storici, cioè i cambiamenti del documento nel tempo, ma anche per altri scopi. Il fine sembra essere quello della raccolta dei dati per combattere lo spam. In effetti da quando si presume sia entrato ... lo spam è quasi sparito. Vediamo...
  19. 19. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Big Table Tabella 1: 1.000 miliardi di cella + 16 famiglie di dati. Si usano tanti timestamp di un documento e si usano 16 famiglie per catalogare i documenti (Html, Anchor text, Lingua, Tipo ect ect) Tabella 2: 200 miliardi di celle + 2 famiglie di dati che contengono Varius Web Pages, TrustRank? BadRank? Rensioni manuali? Duplicate? Ban? Usano la seconda tabella per lo spam? Ipotesi:
  20. 20. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Quality Rater Chi sono : Sono una figura professionale adottata da Google nel 2004 per fornire dati utili a migliorare le SERP e l’algoritmo del motore di Mountain View. Cosa fanno: Valutano i siti e le SERP di Google. Ci sono vari progetti cui partecipano, i più comuni sono la valutazione di un pagina di un sito alla volta per una determinata query o la valutazione di intere SERP (da 5 – 10 risultati) per una determinata query. Cosa non fanno: I QR non hanno potere decisionale, quindi non saranno mai loro, né il loro moderatore di progetto a bannare/rimuovere/penalizzare un sito. Come detto i QR sono dei “ricercatori” che forniscono dei dati, e dei suggerimenti a Google sulla qualità delle SERP Cosa valutano: Le linee guida dei QR contengono molti fattori da valutare, i principali riguardano: - comprensione della query (la tipologia, e l’intenzionalità dell’utente) - valutazione della pagina in base alla sua rilevanza per la query, e l’utilità per l’utente - individuazione di tecniche non valide (SPAM) http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html
  21. 21. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Quality Rater Cosa non valutano: - Altre pagine: quasi tutti i progetti sono focalizzati sulla valutazione di una pagina e dei link che essa fornisce, altre pagine dello stesso sito non sono valutate ai fini del rating da assegnare. E’ possibile valutare una pagina di un sito negativamente e suggerire a Google una pagina migliore dello stesso, ma siamo nell’ordine dei suggerimenti. - La grafica: per molti mesi i QR hanno valutato la pagina di cache di Google, e quindi l’aspetto grafico non è mai stato preso in considerazione per la valutazione di un sito. Fattori positivi per i QR: Non esistono trucchi o segreti per essere valutati positivamente dai QR, si tratta semplicemente di realizzare siti pensando al target e ai suoi bisogni. Un consiglio è però quello di strutturare il proprio sito e di realizzare le proprie pagine come tante landing pages. Questo perché Google è un motore di ricerca e invia sui siti che ha in SERP utenti che hanno espresso una richiesta, questi utenti sono catapultati dalla SERP di Google ad un sito che magari vedono per la prima volta. La pagina d’atterraggio dovrebbe quindi offrire (esempio generico): - indicazioni chiare sul tema generale del sito - contenuti rilevanti per la query fatta dall’utente http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html
  22. 22. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Quality Rater Fattori negativi per i QR: Semplicemente tutto quello che non è pensato avendo in testa i bisogni dell’utente, e che spesso è fatto con il solo scopo di trarne un guadagno (economico e/o di posizionamento). Una pagina povera di contenuti, o con contenuti duplicati, una pagina che reindirizza in maniera maliziosa verso altre pagine o siti, una pagina con contenuti duplicati o autogenerati ricca di PPC ads o banner non a tema, una pagina off-topic offensiva per l’utente, una pagina che tenta di installare malware, o che modifica le impostazioni del browser, o lo blocca. http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html
  23. 23. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Quality Rater Sfatiamo dei miti: - Una pagina con contenuti originali (anche se pochi e non utili per l’utente) e annunci PPC non è SPAM - Testi “di servizio o di navigazione” nascosti via CSS o Javascript, non sono SPAM - Testi corposi (originali e naturali) spezzati parzialmente via CSS o Javascript ma richiamabili in maniera evidente non sono SPAM - L’output RDF di DMOZ + annunci in PPC è SPAM, senza PPC non è SPAM ma è comunque poco rilevante, tranne casi in cui sia arricchito di informazioni (mai successo in 13 mesi…) - I QR non recensiscono siti a piacere (tranne per alcuni progetti in cui è possibile suggerirli) - Mettere un numero non naturale di kws in posizioni non immediatamente visibili all’utente, o con tecniche di scorrimento, è suscettibile ad essere valutato SPAM. Per esperienza il 90% dei casi è stato valutato SPAM, rari casi sono risultati comunque http://www.giorgiotave.it/forum/seo-focus/38272-faq-sui-quality-rater.html
  24. 24. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google Web History Questo nuovo servizio gratuito offre agli utenti Google muniti di toolbar la possibilità di ricercare "full-text" in tutti i documenti web visitati in precedenza. (Beke) Serp personalizzate e misurazione del comportamento utente (Pieropan – Piersante – Messaggi che Google Lancia) http://googleblog.blogspot.com/2007/04/your-slice-of-web.html http://searchengineland.com/070419-181618.php http://www.giorgiotave.it/forum/seo-focus/36971-google-web-history-e-il-futuro-delle-serp.html
  25. 25. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google Features: le mappe
  26. 26. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google Features: le mappe 1. Essere iscritti nella sezione Google Business Center 2. Essere iscritti nei portali di booking online tipo venere.com, epedia, booking ecc.. 3. Essere iscritti su pagine gialle . 4. Fare delle mappe personalizzate utilizzando il nuovo sistema "le mie mappe". 5. Sembra che l'ordinamento dei risultati sia determinato dalla distanza degli esercizi commerciali dal centro della mappa corrente (Influisce molto, ma non è l'unico fattore). 6. Pagare Pagine Gialle o Google non influisce 7. Cercate su Google “yachting palermo” per vedere come avere più link
  27. 27. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google Universal Search Non più solo pagine web nei dieci risultati, ma anche Video, Libri, Mappe!!! - I risultati organici cambieranno il modo di fare SEO - Vedremo sempre più risorse nelle SERP (news ad esempio, blog?) - Per i Libri si deve essere iscritti a Google Libri ed essere un reale autore/editore - Per le mappe abbiamo visto la features di prima, che pare possa entrare nei risultati naturali e quindi non più come features - Ma per noi, per i SEO/SEM, la rivoluzione sono i video, per ora. http://www.giorgiotave.it/forum/seo-focus/39797-google-universal-search.html
  28. 28. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Google Universal Search
  29. 29. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Altri Servizi della ricerca Rss e Blog - esempio, Google blog search, technorati altri Visual Pagine Gialle - telecamere in tempo reale - video degli hotel e altre strutture - mappe dell'italia con riprese aree molto dettagliata - visualizzazione 3d Wikipedia - motore di ricerca collaborativo? Per ora dicono di no -Teecno del Forum GT sarà un esempio di questo
  30. 30. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Il Futuro - Il futuro, secondo me, vedrà i motori di ricerca basarsi sempre più su figure come i Quality Rater, sempre più sull'esperienza degli utenti e sempre più sui siti fatti per gli utenti - Avere una struttura ottimizzata significa solo aver fatto il 10% del lavoro. Oggi, ripeto oggi perchè un giorno cambierà, sono fondamentali i link da risorse di qualità e a tema, nonché i link spontanei. I link facili da avere come blog, forum, scambi, spam conteranno sempre meno. - Il web cambia ogni 6 mesi. Per fare il SEO o il SEM occorre aggiornarsi ogni giorno per non restare indietro. E poi...il vostro progetto deve avere traffico non solo dai motori di ricerca, ma da tutti gli altri servizi, anche dall'offline - Quando fate un sito, puntate molto sulla fidelizzazione dell'utente e cercate il feedback a tutti i costi - E mi raccomando, un sito non è più fatto di sole quattro pagine, ma ci sono tutta un'altra schiera di strumenti: forum, blog, rss, video, mappe, news, feedback.. ed i contenuti generati dagli utenti.
  31. 31. Panoramica sui cambiamenti dei motori di ricerca Giorgio Taverniti del Forum GT http://www.giorgiotave.it/forum/ Grazie ;-) http://www.giorgiotave.it/forum/slide.zip

×