Havas Digital | Web Spam

1,078 views
1,009 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,078
On SlideShare
0
From Embeds
0
Number of Embeds
19
Actions
Shares
0
Downloads
33
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide
  • 06/07/09
  • Havas Digital | Web Spam

    1. 1. Enero de 2.009 Carlos Javier Redondo Gálvez SEO Manager - Havas Digital - Lucha Anti-SPAM Webspam 2.0
    2. 2. "NOTICE: Proprietary and Confidential. All the content of this document (text, figures, lists, financial information, graphics, design, diagrams, as well as other graphic elements and/or audio and videos), whichever is the format used (paper or electronic), is confidential and proprietary to Havas Digital. This document includes ideas and information based on the experience, know-how, intellectual/creative effort of Havas Digital. For these reasons, this material shall not be used, reproduced, copied, disclosed, transmitted, transformed, commercialised or communicated, in whole or in part, neither to third parties to the public, without the express and written consent of Havas Digital" Havas Digital© & Artemis ™ All rights reserved
    3. 3. ¿Qué es el WebSPAM? <ul><li>El WebSpam es la práctica de la manipulación de páginas web con el único fin de obtener tráfico ilícito, y la intención de obtener algún tipo de beneficio. </li></ul><ul><li>Diferentes técnicas de manipulación de las páginas de resultados de los motores de búsqueda: </li></ul><ul><li>White-Hat SEO: Todas las técnicas de promocion que cumplen las guidelines de los buscadores. </li></ul><ul><li>Black-Hat SEO: Todas las técnicas que no siguen estas guidelines. Algunas de estas prácticas son ilegales en algunos paises. </li></ul>
    4. 4. SPAM en base a Contenido Saturación de “Anchor words” sobre el contenido total, y evolución de spam. Tasa de Compresión, y webspam.
    5. 5. SPAM en base a contenido Texto relacionado con las 200 palabras mas comunes en la temática sobre el total de contenido. Fraccion de las 500 palabras mas frecuentes en el cuerpo de la página.
    6. 6. Análisis de Palabras Compuestas Análisis de relevancia de palabras compuestas por las tres principales keywords de la temática. Ej: (FreeMp3, DownloadFree, etc)
    7. 7. Relación de SPAM sobre ratio de Contenido Visible
    8. 8. Inbound Links vs Outbound Links
    9. 9. Motivacion de un WebSpammer <ul><li>Estos son los principales motivos por los se realizan prácticas de WebSpam: </li></ul><ul><li>Obtención de Pagerank (posicionamiento, venta de enlaces, etc) </li></ul><ul><li>Clickthroughs (Monetización de Adspam sites, Afilliates Cookies Stuffing, etc) </li></ul><ul><li>Pruebas SPAM (prueba de métodos de SPAM agresivos para optimización y perfeccionamiento posterior.) </li></ul><ul><li>Politicos y Religiosos </li></ul><ul><li>Entre las prácticas clásicas de webspam están: </li></ul><ul><li>Las páginas “doorway”, texto oculto, paginas duplicadas, enlaces ocultos, spam en weblogs y libros de visita, sobreoptimización de palabras clave, compra y venta de enlaces. </li></ul><ul><li>Aquí expondremos algunas técnicas avanzadas, mas nuevas o menos conocidas. Que han ido apareciendo según la red ha ido evolucionando, así como las nuevas herramientas para la Lucha Anti-Spam existentes hoy dia. </li></ul>
    10. 10. Principales Técnicas Webspam <ul><li>Spamdexing/Spining: Generación de Contenido artificialmente para conseguir enormes cantidades de páginas indexadas de manera automática. </li></ul><ul><li>Existe software avanzado especialmente diseñado para obtener contenidos mediante peticiones a resultados de búsqueda, feed rss, grupos de noticias, wikis, etc. Estos contenidos son alterados mediante diferentes técnicas para intentar evitar los algoritmos de detección implementados por los motores de búsqueda. </li></ul><ul><li>Principales Técnicas empleadas para camuflar contenido duplicado: </li></ul><ul><li>Mezcla de Contenido de diferentes fuentes. </li></ul><ul><li>Cambio Orden en Frases y Párrafos. </li></ul><ul><li>Cacheo de consultas a buscadores internos con contenido aleatorio. </li></ul><ul><li>Mezcla de Frases al azar, o selectivamente mediante afinidad de palabras clave. </li></ul><ul><li>Traducción de contenidos a diferentes idiomas. </li></ul><ul><li>“ Find and Replace” mediante diccionarios de sinónimos, y términos relacionados. </li></ul><ul><li>etc </li></ul>
    11. 11. Tecnicas SPAM <ul><li>Cloaking: Esta técnica se basa en mostrar un contenido diferente a buscadores y usuarios, mediante la identificación de IP y Usser-Agent. </li></ul><ul><li>Los Sistemas de Cloaking detectan si el visitante es un usuario, o un “crawler” de los motores de búsqueda. Una vez identificado al usuario muestra una página normal, mientras que al robot del buscador le muestra una página sobreoptimizada para las palabras clave deseadas. </li></ul><ul><li>Es una práctica altamente penalizada por los buscadores. Google facilita a cualquier usuario la denuncia de este tipo de sitios que pueden ser detectados mediante la caché del buscador, o un emulador de usser-agent. </li></ul><ul><li>No confundir con IP Recovery, un sistema utilizado para direccionar al usuario a la página adecuada según diversos parámetro como la localización, o idioma. </li></ul>
    12. 12. <ul><li>SPAM en Foros : </li></ul><ul><li>Usser-bots mediante registro y posteo automático en sistemas estándar. </li></ul><ul><li>Cookies Stuffing: Mediante diversos medios se introducen cookies de afiliado en los equipos de los usuarios. (falsas imágenes, iFrames, etc). </li></ul>Spam en Foros phpBB y vBulletin captcha AOL y Yahoo captcha Los captcha generan una falsa sensación de seguridad, la mayoría de estos sistemas dejaron de ser una medida efectiva contra el SPAM. Defeated Hard-Captcha PWNtcha y EZ-Gimpy
    13. 13. SPAM en Blogs <ul><li>SPAM en Blogs : </li></ul><ul><li>Comment Spam: Mediante software especializado, que suele usar diccionarios de blogs con dofollow en comentarios. Estos sistemas publican comentarios automáticamente colocando enlaces a las páginas seleccionadas con los “anchor text” elegidos. </li></ul><ul><li>TrackBack Spam: Estos sistemas realizan consultas a buscadores de blogs a través de APIs públicas para las tags deseadas. Certifican que responden con un trackback, y que no hacen uso del atributo “nofollow”. Si cumple los requisitos envía un ping desde el Spam-Blog al sitio víctima con un enlace nofollow. </li></ul><ul><li>Hijacking: Aprovecha vulnerabilidades en sistemas de blogs/CMS estándar (Wordpress, Movable Type, Joomla, etc), o plugins de terceros. Mediante esta técnica introducen en los archivos del template (en footer.php normalmente), o en la base de datos SQL enlaces a páginas spam. </li></ul>
    14. 14. Algoritmos: La lucha Anti-Spam <ul><li>ALGORITMOS: Lista bien definida, ordenada y finita de operaciones que permite hallar la solución a un problema. (Wikipedia) </li></ul><ul><li>Tipos de Algoritmos Anti-SPAM según fuente de estudio: </li></ul><ul><li>Análisis de Enlaces y Estructuras </li></ul><ul><li>Estudio de Clusters </li></ul><ul><li>Estudio del Contenido </li></ul><ul><li>Navegación del Usuario </li></ul><ul><li>Valoración Social </li></ul>“ The Anatomy of a Large-Scale Hypertextual Web Search Engine&quot;
    15. 15. Algoritmos de Rankeo y Lucha Anti-Spam <ul><li>Pagerank </li></ul><ul><li>Truncated Pagerank </li></ul><ul><li>TrustRank </li></ul><ul><li>Anti-TrustRank </li></ul><ul><li>HITS (Hypertext Induced Topic Search) </li></ul><ul><li>WITH (Web spam Identification Through Content and Hyperlinks) </li></ul><ul><li>Query-Log Mining </li></ul><ul><li>LSA </li></ul>
    16. 16. PAGERANK <ul><li>Es un algoritmo utilizado para medir la popularidad de un determinado contenido. PageRank tomó como base para su modelo del Science Citation Index (SCI) elaborado por Eugene Garfield para el Instituto de información científica (ISI) en los Estados Unidos durante los años 50. </li></ul><ul><li>Básicamente es un indicador numérico de la popularidad global de una página web , mediante la valoración de la cantidad y calidad de páginas que enlazan a este contenido (Valor entre 0 y 10). </li></ul>
    17. 17. Truncated Pagerank <ul><li>Es un algoritmo que trabaja sobre la base de “Pagerank”. Básicamente lo que hace es obviar el primer nivel de enlaces de las páginas, valorando tan sólo el resto de enlaces. </li></ul><ul><li>De esta forma se elimina la probabilidad de que una web spam pueda posicionarse gracias a la compra de enlaces. </li></ul>
    18. 18. TrustRank <ul><li>TrustRank es un algoritmo desarrollado para terminar con el crecimiento de paginas spam que explotan los fallos del algoritmo pagerank. </li></ul><ul><li>Funcionamiento: </li></ul><ul><li>Se definen “Nodos” para cada temática. Los Nodos son páginas en un principio definidas por humanos, muy relevantes para la temática buscada y con contenidos de alta calidad. </li></ul><ul><li>A estos “Nodos” o semillas, se le asigna una cantidad de “Trust” (confianza) que se transmite a través de los enlaces hacia páginas externas. Esto dota de credibilidad a las páginas enlazadas. </li></ul><ul><li>Para evitar la propagación de Trustrank a toda la red. El Trustrank transferido es cada vez menor gracias a un coeficiente de atenuación. </li></ul>
    19. 19. Anti-TrustRank <ul><li>Trustrank tiene una limitación para ser efectivo, y es que la confianza trasmitida disminuye rápidamente para evitar que se propague hacia páginas distantes y pierda efectividad. </li></ul><ul><li>Para esto se ha desarrollado el algoritmo “ Anti-Trustrank ”. </li></ul><ul><li>Define páginas SPAM con altos niveles de enlaces salientes, y les otorga un valor de “ DisTrust ” (desconfianza). Este algoritmo se basa en la premisa de que es mas probable encontrar enlaces a paginas spam en paginas spam que en paginas de calidad. </li></ul><ul><li>Este “Anti-Trust” se transmite a través de los inbound links. Es decir se transmite a las páginas que enlazan a la página spam, en lugar de a las paginas que esta enlaza. </li></ul>
    20. 20. HITS: Hypertext Induced Topic Selection <ul><li>HITS usa dos indicadores para hacer la valoración, definiendo cada uno a partir del otro de manera recursiva para el set de páginas relacionadas con el tema buscado: </li></ul><ul><li>A uthority : Valora si la página es buena como recurso de información para los usuarios. </li></ul><ul><li>Suma ponderada de valores hub de los enlaces que apuntan hacia esta página. </li></ul><ul><li>Hub: Valora la calidad de la información que se consigue siguiendo los enlaces que tiene a otras páginas. </li></ul><ul><li>Suma ponderada de valores authority de las páginas a las que apunta ésta. </li></ul>
    21. 21. <ul><li>GRACIAS !!! </li></ul>

    ×