Le penalizzazioni di Google dalle più recenti alle classiche di mister.jinx del Forum GT
In questo intervento vedremo... La ricetta di Google per preparare un buon sito web  Quando un grosso menu diventa un grosso problema Consigli anti-ecologici: perché non è così facile "riciclare" ... ... e perché è utile buttare via cosa non serve. Anche le penalizzazioni "scadono"
La ricetta per preparare un buon sito  Per preparare un buon sito segui le   linee guida per webmaster  di Google Ci sono  3 ingredienti principali : Design e contenuto Aspetto tecnico Qualità
Design e contenuto Progetta un sito con gerarchia e link testuali comprensibili. Ogni pagina dovrà essere raggiungibile da almeno un link testuale statico. Offri agli utenti una mappa del sito con link che puntano alle sezioni più importanti. Se la mappa del sito contiene più di 100 link, suddividila in pagine distinte. Crea un sito utile e ricco di informazioni, con pagine che descrivano in modo chiaro e accurato i contenuti del sito. Pensa alle parole che gli utenti potrebbero digitare per cercare le tue pagine e assicurati che siano incluse nel tuo sito. Prova ad utilizzare del testo anziché immagini per visualizzare nomi, contenuti o link importanti. Il crawler di Google non riconosce il testo contenuto nelle immagini. Assicurati che i tag <title> e gli attributi ALT siano descrittivi e precisi. Verifica l'eventuale presenza di link inaccessibili e la correttezza del codice HTML. Se decidi di utilizzare pagine dinamiche (ad esempio, se l'URL contiene un carattere &quot;?&quot;) tieni presente che non tutti gli spider dei motori di ricerca eseguono la scansione sia delle pagine dinamiche che di quelle statiche. È utile prevedere un numero esiguo di parametri brevi. Limita a un numero ragionevole (meno di 100) i link a una determinata pagina.
Zoom sul numero di link per pagina Progetta un sito con  gerarchia  e link testuali comprensibili Offri agli utenti una mappa del sito con link che puntano alle sezioni più importanti. Se la mappa del sito contiene più di  100 link , suddividila in pagine distinte. Limita a un numero ragionevole ( meno di 100 ) i link a una determinata pagina.
Ancora sul numero di link per pagina Nell' intervista di Randfish  (SEOMoz, 2007) Matt Cutts dice: Pagine con PageRank elevato dovrebbero evitare di linkare altre 100 pagine; Googlebot può arrivare: fino a 150-200 link con pagine a basso PageRank a 200-300 link per pagine di elevata qualità; E' consigliato avere sottopagine in caso di pagine con oltre 100 link anche per come viene diluito il PageRank. 
Un grosso menu è un grosso problema Riconosci il  Megamenu  cercando in SERP il tuo sito per chiavi specifiche, anche longtail. Il mio sito in SERP compare con pagina giusta ma descrizione errata letta da un'altra pagina del sito. Il Megamenu dipende dai troppi link sulle pagine.  Ci sono  2 casi : menu verticale troppo esteso  (tipico dei blog) oppure secondo tedster concentrato nel footer della pagina  menu AJAX  con molti div hidden
Megamenu: come evitarlo Riduci il numero di link presenti sul menu Razionalizzi il menu pensando agli utenti Lo aveva detto Matt Cutts nella stessa intervista: The  &quot;keep the number of links to under 100&quot;  is in the technical guideline section, not the quality guidelines section. That means we're not going to remove a page if you have 101 or 102 links on the page. [...]. Originally, Google only indexed the first 100 kilobytes or so of web documents, so keeping the number of links under 100 was a good way to ensure that all those links would be seen by Google. These days I believe we index deeper within documents, so that's less of an issue. But it is true that if users see 250 or 300 links on a page, that page is probably not as useful for them, so  it's a good idea to break a large list of links down (e.g. by category, topic, alphabetically, or chronologically)  into multiple pages so that your links don't overwhelm regular users.
Link e Footer Esempio da Apple: Il footer è organizzato in sezioni Aiuta la navigazione e l'usabilità dell'utente Unico problema: replica link già presenti nella pagina.
Altro ingrediente: l'aspetto tecnico... Tra le linee guida dell'aspetto tecnico c'è questa frase:   &quot;Utilizza il file robots.txt per impedire la scansione delle pagine dei risultati di ricerca o delle pagine generate automaticamente  che non sono di particolare interesse  per gli utenti provenienti dai motori di ricerca&quot;. Inoltre ti ricordo che il tag nofollow: non fa scattare red flag per penalizzazioni; non fa passare PageRank verso pagine non interessanti  (es: pagine di login)
Il 3° ingrediente: la Qualità Progetta le tue pagine per gli utenti, non per i motori di ricerca. Non ingannare i tuoi utenti o sottoporre ai motori di ricerca contenuti diversi da quelli che mostri agli utenti, pratica comunemente nota come  &quot;cloaking&quot; . Evita i trucchi per migliorare il posizionamento nei motori di ricerca. Una buona regola generale è chiederti se ti sentiresti a tuo agio nello spiegare il tuo comportamento a un sito web concorrente. Un altro test utile consiste nel chiedersi se quanto stai facendo sarà d'aiuto ai tuoi utenti e che cosa faresti se i motori di ricerca non esistessero. Non  partecipare a schemi di link  progettati per migliorare la posizione del tuo sito o il punteggio PageRank. In modo particolare,  evita i link a siti di spam o &quot;cattivi vicini&quot;  poiché ciò potrebbe influire negativamente sul tuo posizionamento. Non utilizzare programmi non autorizzati per inviare le pagine, verificare il posizionamento e così via. Tali programmi sfruttano le risorse di elaborazione e vìolano i  Termini di servizio  di Google. Google sconsiglia l'utilizzo di prodotti come WebPosition Gold™ che inviano  query automatiche  o programmatiche a Google.
Qualità: evita link a siti spam... Lo  Spam  inficia la qualità delle SERP Per migliorare la qualità delle SERP Google nel 2008  ha introdotto molte variazioni nell'algoritmo.
Contro lo spam Tutti i brevetti sono Novembre 2006. Data iniziale Aggiornamento contenuti Traffico Analisi delle query Criteri dei link
Phrase Rank contro lo spam Dicembre 2006 Tra i 6 brevetti del Phrase Rank di Ann Patterson c'è  &quot;Detecting Spam Documents&quot;  qui . Aggiorna i precedenti in quanto si parla di ordinamento  per frasi; per ancore;  per intervalli di date Si usano le frasi per filtrare i documenti Spam e duplicati.
Qualità: evita i link a siti spam Come ti puoi accorgere se il tuo sito linka pagine spam ?  Usi linkfromdomain in Live.com linkfromdomain:nomedominio.com sex porn linkfromdomain:nomedominio.com viagra cialis
Uso di linkfromdomain da Live.com Ecco un esempio recente e concreto:
Ecco un esempio concreto Controllo da Live.com i link spammosi di chi-cerca-trova.net
La cache di Google (27/11/2008) La cache di Google del 21/11/2008 mostra ancora la pagina con il template incriminato:
Ecco i link spammosi nel template Dalla cache di Google si vede questo codice HTML:
Ma il sito com'è posizionato? Il template è stato ripulito DOPO il 21/11/2008 Il sito da una verifica fatta il  27/11/2008  è posizionato  in testa alle SERP: http://www.google.it/search?q=hotel+famiglia&pws=0  
Case History www.QuelliCheBravo.it
Link a siti spam/cattivi vicini Case History sul Forum GT del blog  www.QuelliCheBravo.it    Blog bannato da Google per link a cattive risorse  (alcool, anfetamine) presenti nel footer 15/05/2008 : Segnalazione sul Forum 15/05/2008 : Ripulitura del template 16/05/2008 : Rientro in SERP
Riepilogando... Per i 2 casi visti (1 ban e 1 forte penalizzazione)... intervento al 100% dei casi algoritmico rapido rientro in SERP Conclusione: è attivo un algoritmo che filtra/penalizza i risultati  GiorgioTave ha suggerito il BadRank.  Matt Cutts parlava di TrustRank inteso come filtro antiphising e secondo me trova riscontro nel brevetto 2005 (2007) sul  rifiuto di documenti fastidiosi
Brevetto contro i documenti fastidiosi For instance, the documents may be identified according to their  offensiveness  / appropriateness characteristics, associated keywords, associated site (e.g., a site explicitly or implicitly linked from the document, such as through an embedded hypertext link), status of associated site (e.g., whether a link in a document is broken and/or points to an invalid URL),  flesh content  (e.g., state of undress of human images),  pornographic or other prurient content ,  adult content ,  drug- or alcohol-related content ,  children's content .  The documents may also contain annoying actions such as flashing, strobing, repetitive movement, infinitely looping animation, use of streaming video and/or audio, open network connections, involve game playing, or other actions which the provider may wish to use for criteria for  approving or rejecting a document .  For example, although many of the embodiments disclosed herein have been described with reference to image ads,  the principles herein are equally applicable to other documents, such as websites
Boilerplate: Butta via cosa non serve Il  brevetto boilerplate  riassume la relazione tra algoritmi diversi che presi singolarmente non funzionerebbero così bene: identificazione di  parti inutili  o secondarie di pagine web come le ultime righe di copyright o i link nel footer che rimandano alla home gestione dei duplicati più rigorosa query personalizzate   in base al profilo e al comportamento dell'utente click-through  sulle SERP
Boilerplate: link e footer Casi analizzati: Portale incoming turistico in Google.co.uk e Google.de risale in SERP dalla 850° alla 4° posizione in meno di 48 ore. Il problema? I link nel footer quasi del tutto identici a quelli del menu principale di navigazione. Varie segnalazioni sul Forum GT come quella discussa  qui : sito penalizzato per link sul footer del template di un sito.
Perché è difficile riciclare (con Google) Brin e Google non amano i duplicati già nel 1995 ne parla  di server dedicati a contenere i contenuti duplicati in  &quot;Copy detection mechanism for Digital Documents&quot; (S. Brin, J. Davis, H. Garcia-Molina, Stanford, 1995) I brevetti di Google filtrano da sempre i duplicati  2000 (2003) :  duplicati per query specifiche   2001 (2003) :  individuare documenti near duplicates   2001 (2007) :  stimare la similarità   2003 (2008) :  duplicati e near duplicates 2007 (2008) :  ricerche duplicate  
Qual'è la direzione di Google? Dai brevetti si vede come Google negli anni sia sempre un motore di ricerca più  raffinato e incisivo .  I filtri antiduplicazione seguono l'evoluzione di Google: 1999-2003 : ricerca per parole  2004-2006 : ricerca per frasi  2006-2008 : ricerca universale, personalizzata, 1-to-1 Il brevetto del 2007(2008) sulle ricerche duplicate  amplia il filtro antiduplicazione a video, audio e immagini.
Evoluzione del filtro antiduplicazione Da Reattivo a Proattivo Ieri   un &quot;semplice&quot; filtro di Google agisce a livello testuale non mostra il risultato in SERP (finisce nell'indice supplementare) Oggi si parla di &quot;similarità&quot; agisce (o dovrebbe agire) su più elementi  risparmia banda in fase di indicizzazione
Duplicati, Similarità e Spiderizzazione &quot;The near-duplicate detection techniques have a number of important practical applications. In the context of a search engine for example, these techniques can be used during a crawling operation to speed-up the crawling and to save bandwidth  by not crawling near-duplicate Web pages or sites , as determined from documents uncovered in a previous crawl.  Further, by reducing the number of Web pages or sites crawled, these techniques can be used to reduce storage requirements of a repository, and therefore, other downstream stored data structures.  These techniques can instead be used later, in response to a query, in which case a user is not annoyed with near-duplicate search results. These techniques may also be used to &quot;fix&quot; broken links. That is, if a document (e.g., a Web page) doesn't exist (at a particular location or URL) anymore, a link to a near-duplicate page can be provided.&quot; Link al  brevetto  .
Ma è sempre colpa nostra ? Quando un sito viene penalizzato è sempre colpa di un webmaster o SEO che ha esagerato ? Oppure ci sono altri casi ? Ecco due casi in cui non dipende da noi: #6 position penalty IFRAME bug
#6 Position Penalty Scoperta  qui  in WMW  I siti in posizioni 1-2 scivolavano alla 6°. Caratteristiche: siti ottimamente posizionati da tanto tempo discesa per chiavi specifiche a volte singola o plurali Confermata  da Matt Cutts: dopo aver corretto un elemento particolare sull'algoritmo è sparita.
IFRAME fix Documentato da Matt Cutts (sempre lui eh!) il 1° dicembre 2008 in  Google Groups  su un blog penalizzato perché aveva una vasta area con IFRAME. La penalizzazione è automatica! &quot;Essentially, our search algorithm saw a large area on the blog that was due to an IFRAME included from another site and that looked spammy to our automatic classifier.  I believe that this bug has been fixed now . We also added additional safety checks to the relevant system that would escalate to an  engineer if this site had the same issue in the future.&quot; 
Ho finito :-)

Le Penalizzazioni Di Google

  • 1.
    Le penalizzazioni diGoogle dalle più recenti alle classiche di mister.jinx del Forum GT
  • 2.
    In questo interventovedremo... La ricetta di Google per preparare un buon sito web  Quando un grosso menu diventa un grosso problema Consigli anti-ecologici: perché non è così facile &quot;riciclare&quot; ... ... e perché è utile buttare via cosa non serve. Anche le penalizzazioni &quot;scadono&quot;
  • 3.
    La ricetta per preparare unbuon sito  Per preparare un buon sito segui le linee guida per webmaster  di Google Ci sono  3 ingredienti principali : Design e contenuto Aspetto tecnico Qualità
  • 4.
    Design e contenutoProgetta un sito con gerarchia e link testuali comprensibili. Ogni pagina dovrà essere raggiungibile da almeno un link testuale statico. Offri agli utenti una mappa del sito con link che puntano alle sezioni più importanti. Se la mappa del sito contiene più di 100 link, suddividila in pagine distinte. Crea un sito utile e ricco di informazioni, con pagine che descrivano in modo chiaro e accurato i contenuti del sito. Pensa alle parole che gli utenti potrebbero digitare per cercare le tue pagine e assicurati che siano incluse nel tuo sito. Prova ad utilizzare del testo anziché immagini per visualizzare nomi, contenuti o link importanti. Il crawler di Google non riconosce il testo contenuto nelle immagini. Assicurati che i tag <title> e gli attributi ALT siano descrittivi e precisi. Verifica l'eventuale presenza di link inaccessibili e la correttezza del codice HTML. Se decidi di utilizzare pagine dinamiche (ad esempio, se l'URL contiene un carattere &quot;?&quot;) tieni presente che non tutti gli spider dei motori di ricerca eseguono la scansione sia delle pagine dinamiche che di quelle statiche. È utile prevedere un numero esiguo di parametri brevi. Limita a un numero ragionevole (meno di 100) i link a una determinata pagina.
  • 5.
    Zoom sul numero dilink per pagina Progetta un sito con gerarchia e link testuali comprensibili Offri agli utenti una mappa del sito con link che puntano alle sezioni più importanti. Se la mappa del sito contiene più di 100 link , suddividila in pagine distinte. Limita a un numero ragionevole ( meno di 100 ) i link a una determinata pagina.
  • 6.
    Ancora sul numerodi link per pagina Nell' intervista di Randfish  (SEOMoz, 2007) Matt Cutts dice: Pagine con PageRank elevato dovrebbero evitare di linkare altre 100 pagine; Googlebot può arrivare: fino a 150-200 link con pagine a basso PageRank a 200-300 link per pagine di elevata qualità; E' consigliato avere sottopagine in caso di pagine con oltre 100 link anche per come viene diluito il PageRank. 
  • 7.
    Un grosso menuè un grosso problema Riconosci il Megamenu cercando in SERP il tuo sito per chiavi specifiche, anche longtail. Il mio sito in SERP compare con pagina giusta ma descrizione errata letta da un'altra pagina del sito. Il Megamenu dipende dai troppi link sulle pagine. Ci sono  2 casi : menu verticale troppo esteso (tipico dei blog) oppure secondo tedster concentrato nel footer della pagina  menu AJAX con molti div hidden
  • 8.
    Megamenu: come evitarloRiduci il numero di link presenti sul menu Razionalizzi il menu pensando agli utenti Lo aveva detto Matt Cutts nella stessa intervista: The &quot;keep the number of links to under 100&quot; is in the technical guideline section, not the quality guidelines section. That means we're not going to remove a page if you have 101 or 102 links on the page. [...]. Originally, Google only indexed the first 100 kilobytes or so of web documents, so keeping the number of links under 100 was a good way to ensure that all those links would be seen by Google. These days I believe we index deeper within documents, so that's less of an issue. But it is true that if users see 250 or 300 links on a page, that page is probably not as useful for them, so it's a good idea to break a large list of links down (e.g. by category, topic, alphabetically, or chronologically) into multiple pages so that your links don't overwhelm regular users.
  • 9.
    Link e FooterEsempio da Apple: Il footer è organizzato in sezioni Aiuta la navigazione e l'usabilità dell'utente Unico problema: replica link già presenti nella pagina.
  • 10.
    Altro ingrediente: l'aspettotecnico... Tra le linee guida dell'aspetto tecnico c'è questa frase:   &quot;Utilizza il file robots.txt per impedire la scansione delle pagine dei risultati di ricerca o delle pagine generate automaticamente che non sono di particolare interesse per gli utenti provenienti dai motori di ricerca&quot;. Inoltre ti ricordo che il tag nofollow: non fa scattare red flag per penalizzazioni; non fa passare PageRank verso pagine non interessanti (es: pagine di login)
  • 11.
    Il 3° ingrediente: laQualità Progetta le tue pagine per gli utenti, non per i motori di ricerca. Non ingannare i tuoi utenti o sottoporre ai motori di ricerca contenuti diversi da quelli che mostri agli utenti, pratica comunemente nota come &quot;cloaking&quot; . Evita i trucchi per migliorare il posizionamento nei motori di ricerca. Una buona regola generale è chiederti se ti sentiresti a tuo agio nello spiegare il tuo comportamento a un sito web concorrente. Un altro test utile consiste nel chiedersi se quanto stai facendo sarà d'aiuto ai tuoi utenti e che cosa faresti se i motori di ricerca non esistessero. Non  partecipare a schemi di link  progettati per migliorare la posizione del tuo sito o il punteggio PageRank. In modo particolare, evita i link a siti di spam o &quot;cattivi vicini&quot; poiché ciò potrebbe influire negativamente sul tuo posizionamento. Non utilizzare programmi non autorizzati per inviare le pagine, verificare il posizionamento e così via. Tali programmi sfruttano le risorse di elaborazione e vìolano i  Termini di servizio  di Google. Google sconsiglia l'utilizzo di prodotti come WebPosition Gold™ che inviano query automatiche o programmatiche a Google.
  • 12.
    Qualità: evita linka siti spam... Lo  Spam  inficia la qualità delle SERP Per migliorare la qualità delle SERP Google nel 2008  ha introdotto molte variazioni nell'algoritmo.
  • 13.
    Contro lo spamTutti i brevetti sono Novembre 2006. Data iniziale Aggiornamento contenuti Traffico Analisi delle query Criteri dei link
  • 14.
    Phrase Rank controlo spam Dicembre 2006 Tra i 6 brevetti del Phrase Rank di Ann Patterson c'è &quot;Detecting Spam Documents&quot;  qui . Aggiorna i precedenti in quanto si parla di ordinamento  per frasi; per ancore;  per intervalli di date Si usano le frasi per filtrare i documenti Spam e duplicati.
  • 15.
    Qualità: evita ilink a siti spam Come ti puoi accorgere se il tuo sito linka pagine spam ?  Usi linkfromdomain in Live.com linkfromdomain:nomedominio.com sex porn linkfromdomain:nomedominio.com viagra cialis
  • 16.
    Uso di linkfromdomainda Live.com Ecco un esempio recente e concreto:
  • 17.
    Ecco un esempioconcreto Controllo da Live.com i link spammosi di chi-cerca-trova.net
  • 18.
    La cache diGoogle (27/11/2008) La cache di Google del 21/11/2008 mostra ancora la pagina con il template incriminato:
  • 19.
    Ecco i linkspammosi nel template Dalla cache di Google si vede questo codice HTML:
  • 20.
    Ma il sitocom'è posizionato? Il template è stato ripulito DOPO il 21/11/2008 Il sito da una verifica fatta il  27/11/2008 è posizionato in testa alle SERP: http://www.google.it/search?q=hotel+famiglia&pws=0  
  • 21.
  • 22.
    Link a sitispam/cattivi vicini Case History sul Forum GT del blog www.QuelliCheBravo.it    Blog bannato da Google per link a cattive risorse (alcool, anfetamine) presenti nel footer 15/05/2008 : Segnalazione sul Forum 15/05/2008 : Ripulitura del template 16/05/2008 : Rientro in SERP
  • 23.
    Riepilogando... Per i2 casi visti (1 ban e 1 forte penalizzazione)... intervento al 100% dei casi algoritmico rapido rientro in SERP Conclusione: è attivo un algoritmo che filtra/penalizza i risultati GiorgioTave ha suggerito il BadRank. Matt Cutts parlava di TrustRank inteso come filtro antiphising e secondo me trova riscontro nel brevetto 2005 (2007) sul  rifiuto di documenti fastidiosi
  • 24.
    Brevetto contro idocumenti fastidiosi For instance, the documents may be identified according to their offensiveness / appropriateness characteristics, associated keywords, associated site (e.g., a site explicitly or implicitly linked from the document, such as through an embedded hypertext link), status of associated site (e.g., whether a link in a document is broken and/or points to an invalid URL), flesh content (e.g., state of undress of human images), pornographic or other prurient content , adult content , drug- or alcohol-related content , children's content .  The documents may also contain annoying actions such as flashing, strobing, repetitive movement, infinitely looping animation, use of streaming video and/or audio, open network connections, involve game playing, or other actions which the provider may wish to use for criteria for approving or rejecting a document .  For example, although many of the embodiments disclosed herein have been described with reference to image ads, the principles herein are equally applicable to other documents, such as websites
  • 25.
    Boilerplate: Butta via cosanon serve Il brevetto boilerplate riassume la relazione tra algoritmi diversi che presi singolarmente non funzionerebbero così bene: identificazione di parti inutili o secondarie di pagine web come le ultime righe di copyright o i link nel footer che rimandano alla home gestione dei duplicati più rigorosa query personalizzate in base al profilo e al comportamento dell'utente click-through sulle SERP
  • 26.
    Boilerplate: link e footerCasi analizzati: Portale incoming turistico in Google.co.uk e Google.de risale in SERP dalla 850° alla 4° posizione in meno di 48 ore. Il problema? I link nel footer quasi del tutto identici a quelli del menu principale di navigazione. Varie segnalazioni sul Forum GT come quella discussa  qui : sito penalizzato per link sul footer del template di un sito.
  • 27.
    Perché è difficilericiclare (con Google) Brin e Google non amano i duplicati già nel 1995 ne parla  di server dedicati a contenere i contenuti duplicati in &quot;Copy detection mechanism for Digital Documents&quot; (S. Brin, J. Davis, H. Garcia-Molina, Stanford, 1995) I brevetti di Google filtrano da sempre i duplicati  2000 (2003) : duplicati per query specifiche   2001 (2003) : individuare documenti near duplicates   2001 (2007) : stimare la similarità   2003 (2008) : duplicati e near duplicates 2007 (2008) : ricerche duplicate  
  • 28.
    Qual'è la direzionedi Google? Dai brevetti si vede come Google negli anni sia sempre un motore di ricerca più raffinato e incisivo .  I filtri antiduplicazione seguono l'evoluzione di Google: 1999-2003 : ricerca per parole  2004-2006 : ricerca per frasi  2006-2008 : ricerca universale, personalizzata, 1-to-1 Il brevetto del 2007(2008) sulle ricerche duplicate  amplia il filtro antiduplicazione a video, audio e immagini.
  • 29.
    Evoluzione del filtroantiduplicazione Da Reattivo a Proattivo Ieri   un &quot;semplice&quot; filtro di Google agisce a livello testuale non mostra il risultato in SERP (finisce nell'indice supplementare) Oggi si parla di &quot;similarità&quot; agisce (o dovrebbe agire) su più elementi  risparmia banda in fase di indicizzazione
  • 30.
    Duplicati, Similarità eSpiderizzazione &quot;The near-duplicate detection techniques have a number of important practical applications. In the context of a search engine for example, these techniques can be used during a crawling operation to speed-up the crawling and to save bandwidth by not crawling near-duplicate Web pages or sites , as determined from documents uncovered in a previous crawl.  Further, by reducing the number of Web pages or sites crawled, these techniques can be used to reduce storage requirements of a repository, and therefore, other downstream stored data structures.  These techniques can instead be used later, in response to a query, in which case a user is not annoyed with near-duplicate search results. These techniques may also be used to &quot;fix&quot; broken links. That is, if a document (e.g., a Web page) doesn't exist (at a particular location or URL) anymore, a link to a near-duplicate page can be provided.&quot; Link al brevetto  .
  • 31.
    Ma è semprecolpa nostra ? Quando un sito viene penalizzato è sempre colpa di un webmaster o SEO che ha esagerato ? Oppure ci sono altri casi ? Ecco due casi in cui non dipende da noi: #6 position penalty IFRAME bug
  • 32.
    #6 Position PenaltyScoperta  qui  in WMW  I siti in posizioni 1-2 scivolavano alla 6°. Caratteristiche: siti ottimamente posizionati da tanto tempo discesa per chiavi specifiche a volte singola o plurali Confermata  da Matt Cutts: dopo aver corretto un elemento particolare sull'algoritmo è sparita.
  • 33.
    IFRAME fix Documentatoda Matt Cutts (sempre lui eh!) il 1° dicembre 2008 in Google Groups  su un blog penalizzato perché aveva una vasta area con IFRAME. La penalizzazione è automatica! &quot;Essentially, our search algorithm saw a large area on the blog that was due to an IFRAME included from another site and that looked spammy to our automatic classifier. I believe that this bug has been fixed now . We also added additional safety checks to the relevant system that would escalate to an  engineer if this site had the same issue in the future.&quot; 
  • 34.