Fundamentos Seo Parte I Estrella Smx Madrid08v2
Upcoming SlideShare
Loading in...5
×
 

Fundamentos Seo Parte I Estrella Smx Madrid08v2

on

  • 1,146 views

 

Statistics

Views

Total Views
1,146
Views on SlideShare
1,145
Embed Views
1

Actions

Likes
0
Downloads
21
Comments
1

1 Embed 1

http://dictina.es 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
  • Ponencia de Fundamentos SEO en el SMX Madrid 2008. Parte I (definición y objetivos e introducción a los buscadores). Está orientada a neófitos, no especialistas en la materia. La presentación se hizo de modo compartido con Lakil Essady y con Gonzalo Valverde que se ocuparon de hacer una introducción a los otros aspectos básicos de la estrategia SEO.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Fundamentos Seo Parte I Estrella Smx Madrid08v2 Fundamentos Seo Parte I Estrella Smx Madrid08v2 Presentation Transcript

  • Fundamentos SEO: - Definición e introducción a los buscadores - Arquitectura de la información y SEO Mayo 2008 Estrella Álamo Álvarez Red Karaoke
  • ¿Qué es Search Engine Optimization? Conjunto de técnicas de optimización de un website para buscadores para que atraiga el mejor tráfico posible (cantidad/calidad)
    • Una web tiene 2 tipos de usuarios:
    • las personas (usuario final). Tareas: informarse sobre algo, comprar, registrarse, comunicarse...
    • los robots (usuario intermediario). Tarea: informarse sobre el site. El SEO facilita esa tarea.
    • Los buscadores procesan la información con el objetivo de satisfacer la necesidad de información de las personas con la mayor relevancia, calidad y actualidad.
    • Por lo tanto, la regla de oro a aplicar será el SENTIDO COMÚN.
    Definición e introducción a los buscadores
    • Los buscadores se componen de:
    • Índices : de palabras buscadas por los usuarios y de palabras contenidas en las webs.
    • Interfaz de consulta y presentación de resultados (SERPs)
    Definición e introducción a los buscadores ¿Cómo extraen la información y qué hacen con ella?
    • Arañas llamadas también crawlers, (ro)bots, spiders: Googlebot (en la foto), Slurp (Yahoo), MSNBot ...
    • Son programas que los buscadores utilizan para encontrar contenidos en la web (páginas y otros archivos).
    • Los buscadores utilizan un PROCESO de trabajo que incluye las siguientes acciones:
        • encuentran
        • descargan
        • almacenan
        • detectan y analizan
        • recuperan la información
    • 1) encuentran :
    • las arañas/bots encuentran las páginas SIGUIENDO ENLACES.
    • Por eso es IMPRESCINDIBLE usar enlaces planos y rastreables y asegurarse de que todo está enlazado desde algún sitio. Está en la naturaleza del hipertexto.
    • Ejemplo de enlace no rastreable:
    • <a id=&quot;Buscador_C1_BuscarNoticia“ href=&quot;javascript:__doPostBack('Buscador_C1$BuscarNoticia','')&quot;>Buscar noticias</a>
    Definición e introducción a los buscadores ¿Cómo extraen la información y qué hacen con ella?
    • 2) descargan : la herramienta de informes para webmasters de Google (WMT) te informa del tiempo de descarga, cuántas páginas ha rastreado, la velocidad de rastreo y el peso (no superar los 100KB de HTML sin imágenes). También conviene utilizar las herramientas de Yahoo! Site Explorer o de Live para obtener información.
    Definición e introducción a los buscadores
    • detectan y analizan:
    • extraen las palabras contenidas en cada página y señales que indican la importancia relativa de esas palabras en el documento (frecuencia, etiquetado semántico, sinónimos, posición)
    • detectan las palabras que sirven para crear enlaces: canta aquí / sitio para cantar
    • detectan enlaces en las páginas y los analizan como señales de calidad y/o popularidad.
    • procesan otras señales: geolocalización, IP, idioma…
    • 4) almacenan: guardan una copia de la página (caché) en sus servidores.
    Definición e introducción a los buscadores
    • Por otra parte, también se procesa la consulta y la estrategia de búsqueda .
    • Las palabras clave es lo que la gente busca.
    • En palabras de Udi Mamber, VP de Search Quality de Google:
    Definición e introducción a los buscadores &quot; The results we show you are based not only on what we know of the Web, but also what other people have searched for […] I wish people would put more effort into thinking about how other people will find them and putting the right keywords onto their pages. Search is about getting lots of signals and putting them all together […] Signals from people are the best signals […] The art of ranking is how do you collect lots of signals then put them together? &quot;
    • 5) recuperan la información
    • Es decir, contestan a la pregunta del usuario con los datos que tienen, ordenándolos según un algoritmo de ranking o clasificación cuyo objetivo es devolver los más relevantes a la consulta.
    • Cada buscador tiene su propio algoritmo y la ordenación de los resultados depende de factores internos y de factores externos al site (popularidad y autoridad).
    • El Pagerank es uno de los componentes del algoritmo de Google para ordenar resultados. Se trata de un sistema de análisis de links.
    • Otros factores que se están utilizando por los distintos buscadores son:
      • el feedback de los usuarios y su comportamiento
      • evaluadores humanos
      • penalizaciones por spam
      • agrupación de resultados por tema, votaciones…
    Definición e introducción a los buscadores
    • Organizas la arquitectura de tu sitio web para que sea fácilmente rastreable y proporcionar a los buscadores una idea clara sobre tu temática= más páginas, más rápido, más ranking .
    • La arquitectura de información debería idearse durante la fase de planificación del proyecto
    • La estructura se expresa mediante URLs.
    • A efectos SEO, en la sintaxis de una URL nos interesan principalmente unos componentes:
      • Dominios
      • Nodos (rutas o directorios)
      • Archivos
    • Dominios : top level domains: .es , .com , .org … o subdominios como www. rtve.es o es. wikipedia.org
    • Elegir un buen nombre de dominio es crítico. Hay dos opciones:
      • dominio con tu keyword principal: Red Karaoke
      • dominio por nombre: Amazon, Yahoo, Ya.com …
    Arquitectura de la información y SEO La buena estructura de un site influye en su posicionamiento
    • URLs canónicas : Evitar tener contenido duplicado : el mismo contenido accesible y enlazado por varias URL distintas. El caso más conocido es el de la portada:
      • http://www.redkaraoke.es
      • http://redkaraoke.es
      • http://www.redkaraoke.es/index.php
    • Para los usuarios es transparente, pero no para los buscadores .
    • El contenido duplicado se puede identificar con Yahoo Site Explorer, herramientas como Gsitecrawler o la WMT. Evitar la duplicación de URLs en tu site ayuda a la coherencia interna, impide la división de los enlaces que te realizan webs externas y mejora la distribución interna de potencia de enlace.
    • Hay que escoger una única forma canónica y atenerte a ella siempre, siempre, siempre .
    • Dominios geolocalizados : si tu site afecta a varios países puedes optar por poner un dominio de primer nivel con el país (www.midominio .de ), un subdominio que lo indique ( de. midominio.com) y en última instancia un directorio (www.midominio.com /de ) y geolocalizarlo con la WMT ¡No coincide con idioma!
    • Redirecciones y respuestas :
    • En Internet las máquinas se comunican entre sí mediante el protocolo de comunicación de hipertexto (http). Éste tiene definidos unos códigos numéricos de respuesta que se transmiten entre el servidor que envía la página y el cliente (navegador o robot) que la solicita.
    Arquitectura de la información y SEO
    • A efectos de SEO nos interesan unos pocos códigos de respuesta HTTP:
      • 200 (Todo OK, te devuelvo la página que me has pedido)
      • 301 (movido permanente, ya no está aquí, mira en esta otra dirección) La redirección preferente : ésta transmite Pagerank
      • 302 (movido temporalmente, ahora no está aquí sino aquí, sin embargo puede volver a estarlo) Si vas a volver a utilizar esa URL
      • 404 (no encontrado) Hacer páginas de error usables, que recuperen el tráfico. ¡No redirigir a la home! Buscarlas en la WMT
      • 503 (servicio no disponible) Si en el momento en que el Googlebot pasa no puedes responder, devuelve este código y no te borrará nada.
      • Para más info ver el blog Webmaster central de Google y para ver los códigos usar un visualizador como Rex Swain o el de Rankquest
    • 2. Nodos
    • - Las rutas o directorios que articulan la jerarquía de una web.
    • - Se recomienda una jerarquía en árbol, al menos.
    • No demasiado profundos (menor frecuencia de visita). Lo más importante situado cerca del dominio, de la raíz, y/o enlazado desde portada.
    • La jerarquía estará condicionada por los objetivos del site, tamaño y el tipo de contenido .
    • Las rutas serán semánticas para proporcionar contexto a los usuarios y a los robots:
    • - son más fáciles de utilizar y recordar. ( http://www.diariovasco.com /local/san-sebastian/ )
    • las secciones interiores de tu site te permiten acceder a las búsquedas de la “larga cola” y pueden ser enlazadas desde fuera otorgando más capacidad de ranking.
    • En la medida de lo posible, habrá que nombrarlas según el estudio de keywords realizado y también utilizarlo para dar nombre a los archivos sean páginas html, videos o imágenes.
    Arquitectura de la información y SEO
    • Algunos problemas:
    • URLs no semánticas o con demasiados parámetros (más de 2): se solventa creando unas reglas de reescritura que se aplican con unos módulos especiales disponibles en los servidores Apache e IIS.
    • Tecnologías obstáculo : uso de javascript, flash o Ajax: hay que utilizar enlaces planos y las alternativas accesibles de estas tecnologías.
    • Frames, Iframes : se consideran como páginas aparte, mejor usar Server Side Includes.
    • Algunos archivos útiles :
    • El mapaweb : hacer una página a modo de mapa de la web para garantizar que todo lo que sea importante para tu site esté enlazado . Colgará de la portada y no tendrá más de 100-150 enlaces.
    • El sitemap : archivo XML con un inventario de tus URL con el que alimentas al robot.
    • El robots.txt : ¡usar con precaución! es posible que haya páginas que no quieras que aparezcan en los resultados de búsqueda. Con este archivo de texto que se cuelga del directorio raíz le dices al robot dónde no debe entrar. También se conoce como protocolo de exclusión de robots. ¡OJO!: Si no es necesario, es mejor no crearlo, porque un error al redactarlo puede ser catastrófico.
    Arquitectura de la información y SEO
  • Muchas gracias Estrella Álamo Álvarez Marketing Director Red Karaoke: Sing, Share, Play! Contacto: