Introducción a Internet  En esta lección, veremos cómo empezó Internet y de qué se trata. También hablaremos de  los busca...
Por la Red Internet circulan constantemente cantidades increíbles de información. Por estemotivo se le llama también La Au...
fin de aumentar la rapidez de envío y recepción de datos. Cada día que pasa se publican en laRed miles de documentos nuevo...
Pero, ¿Qué es un buscador?Definiremos buscador como los servicios de búsqueda accesibles al público en la red(Google, Yaho...
Yahoo, es el principal representante de este modo de búsqueda. Existen otros buscadores decómo Olé, pero son menos usados ...
Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. Elprimero es un buscador ("search eng...
1.- ¿Yahoo es un buscador como Google?    Yahoo y Google son iguales y se basan en la misma estructura    Ninguna de las r...
1.- ¿Yahoo es un buscador como Google?    Yahoo y Google son iguales y se basan en la misma estructura    Ninguna de las r...
Cómo funciona el        posicionamiento  En esta lección, veremos cómo funciona el posicionamiento de las páginas Web que ...
número de páginas a descargar. En estos casos lo que se hace es detectar el grado de       variabilidad (también llamado f...
La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que tengamos nosotros al leer la misma pá...
A continuación vemos los resultados de búsqueda de pago o SEM:Elementos para fomentar la entrada de un robot en nuestra We...
palabras para indicar su importancia en cada documento; la asignación de relevancia se basaen la distribución de las palab...
Meta-Tags específicos para robots - son unos caracteres pertenecientes al HTML  que se deben de escribir dentro del tag ge...
1.- ¿Es importante el contenido de una Web corporativa?    No, aunque de forma interna para la compañía sí.   El secreto d...
1.- ¿Puedo evitar ser rastreado?    No.    A veces, en función de cómo este hecha la Web.     Los métodos de exclusión per...
Importancia del dominio y   elección de palabras clavesEn esta lección, veremos conceptos relacionados con el dominio, tra...
Los buscadores, cada vez más, están dando más importancia a la geoposición de un dominio, esdecir, que si la información d...
este dominio es probable que te encuentres con que los robots de búsqueda no pasan a indexarlo ymucho menos posicionarlo.E...
RecuentoCuenta el total de palabras en un área excluyendo las etiquetas HTML.PesoEl peso es el porcentaje que el término d...
organismos en planetas donde antes se pensaba que sería imposible.Tras la lectura de este fragmento de noticia podrías pla...
La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formóprimero y que después se rell...
1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda.   2. Calcula sus distintos grados ...
Lo recomendable es jugar con un término principal para el que optimizamos el código consciente yrigurosamente y un término...
Nos indica que el dominio es de 01 de enero de 1996       Realice esta misma operación, con 2 ó 3 dominios que le interese...
Es la importancia de nuestra Web en los buscadores.     La relevancia mide la distancia entre el comienzo del area y el lu...
El "índice de popularidad" es la suma del número de páginas que nosapuntan por el índice de popularidad de cada una de ell...
Herramientas de optimización y         evaluación                                  En esta lección, trataremos de conocerl...
Si desea instalar la barra de herramientas de Alexa: http://www.alexa.com/site/download        DMOZ:. También conocido com...
El programa te ayuda a encontrar las mejores palabras clave para búsquedas efectivas de tu página,optimizar su contenido p...
negocio:Estos indicadores pueden ser:        Indicadores Básicos: indicandonos el número de visitas, usuarios únicos, pági...
Haga clic en añadir sitio Web e itroduzca la Url de la web.
Pulse Finalizar. Automáticamente le mostrará un código, que deberá introducir en el pie de la páginaWeb.Vuelva a su cuenta...
PageRank, Alexa Rank, enlaces entrantes, etc. que posee cualquier Web.Si desea ampliar la información acerca de esta herra...
Dentro de Xinu, introduca la URL: www.mundoanimalia.comAhora resalte los elementos más importantes para el posicionamiento...
1.- ¿Qué es el Google Page Rank y para qué sirve?    El Page Rank es un valor numérico que Google atribuye anuestra Web y ...
1.- ¿Qué es el Google Page Rank y para qué sirve?    El Page Rank es un valor numérico que Google atribuye a nuestraWeb y ...
Optimiza el diseño y la    programación de su WebLa optimización de una Web se basa en unos algoritmos que cambian y se pe...
<!-- información de cabecera utilizada para contener información adicional acerca de estedocumento, y que no se muestra en...
B. Área del título<TITLE>: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste la...
En este enlace podrá ver las Keywords de si Web:        http://www.webconfs.com/website-keyword-suggestions.phpEjemplo de ...
El DOCTYPE: es la explicación de que tipo de código HTML / XHTML vas a encontrar en el        sitio. Con esto ayudas al na...
hablando de algo perceptible para nuestros usuarios, como hemos visto anteriormente.Esta disposición es muy importante par...
A partir de aquí encontramos numerosas palabras en negrita, correspondientes al nombre del perro.Con esto de indicamos al ...
<img title="Armario del siglo XIX con un estilo contemporáneo"src=”http://misitio.ext/imagen/armario-XIX-contenporaneo.gif...
<address> - indica una dirección postal. <big> - marca que el texto ha de tener un tamaño mayor. <blockquote> - se utiliza...
Ejemplo: Para identificar a los crawlers usaremos el User-agent: *User-agent: *             Disallow: /view_content.cfm (N...
Mapa del sitio  El mapa del sitio es una lista de vínculos a las diferentes páginas de la propia Web. De esta manera, la p...
Intentar contextualizar enlaces: crear enlaces en medio de un texto.En la imagen que se puede ver a continuación, vemos lo...
* Un anchor text es el texto o palabra con la que hacemos un link.        Programación en CSS        Las tablas existen de...
Analizarremos si la Web mundo animalia esta optimizada para SEO según los siguientescriterios:¿Dispone de todos los elemen...
1.- ¿Influye el tiempo de carga de nuestra Web en el posicionamiento?    No.    Sí, la optimización de nuestra Web para un...
1.- ¿Influye el tiempo de carga de nuestra Web en elposicionamiento?                                                      ...
Los contenidos de su Web    Los contenidos de una Web se deben preparar dándole forma según el código HTML y    destacando...
En el caso de los textos suplementarios en la Web, serian igualmente óptimos si no llevarasesas palabras clave, aun así, r...
Contenidos especiales: imágenesCada vez más, las imágenes son una fuente importante de tráfico para las Web. Paraposiciona...
Elementos externos - link buildingEl link building es la estrategia previamente planificada para conseguir enlaces que nos...
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Upcoming SlideShare
Loading in …5
×

Curso posicionamiento

1,634 views
1,406 views

Published on

0 Comments
3 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
1,634
On SlideShare
0
From Embeds
0
Number of Embeds
6
Actions
Shares
0
Downloads
0
Comments
0
Likes
3
Embeds 0
No embeds

No notes for slide

Curso posicionamiento

  1. 1. Introducción a Internet En esta lección, veremos cómo empezó Internet y de qué se trata. También hablaremos de los buscadores y su sistema de funcionamiento. Introducción Un poco de historia Qué es un buscador y su funcionamiento Modos de búsqueda en Internet Práctica: Diferencia entre un buscador y un directorio Práctica: Modos de búsquedaIntroducciónHabitualmente, escuchamos definiciones de Internet como “la Red de las Redes” o como “laautopista de la información”.Internet es una Red de porque está hecha a base de unir muchas redes locales deordenadores, o sea de unos pocos ordenadores en un mismo edificio o empresa, con otrasredes.La llamamos "Red de Redes" porque es la más grande, porque en todo el mundo se puedetener acceso a Internet: en algunos países como los del Tercer Mundo, sólo acceden losmultimillonarios y en otros como USA o los países más desarrollados de Europa, podemosencontrar conexión e incluso en la calle.Visite este enlace y recibirá más información acerque de lo que es una Red:http://es.wikipedia.org/wiki/Red_de_comunicaciones
  2. 2. Por la Red Internet circulan constantemente cantidades increíbles de información. Por estemotivo se le llama también La Autopista de la Información. Hay 50 millones de"Internautas", es decir, de personas que "navegan" por Internet en todo el Mundo. Se dice"navegar" porque es normal el ver información que proviene de muchas partes distintas delMundo en una sola sesión.La red nos permite conectar desde ordenadores personales, ordenadores centrales de grandesempresas como robots y maquinaria, hasta cámaras de vídeo,.. en definitiva es una red queinterconecta una gran cantidad de dispositivos e información.Un poco de historiaPara entender lo que es hoy en día Internet, es importante que hagamos un repaso a suhistoria. Internet nació en EE.UU. hace unos 30 años. Un proyecto militar llamadoARPANET pretendía poner en contacto una importante cantidad de ordenadores de lasinstalaciones del ejercito de EE.UU. Este proyecto gastó mucho dinero y recursos enconstruir la red de ordenadores más grande en aquella época.Visite este enlace y recibirá más información acerque de lo que es una ARPANET:http://es.wikipedia.org/wiki/ARPANETAl cabo del tiempo, a esta red se fueron añadiendo otras empresas. Así se logró que crecierapor todo el territorio de EE.UU. Hará unos 10 años se conectaron las instituciones públicascomo las Universidades y también algunas personas desde sus casas. Fue entonces cuando seempezó a extender Internet por los demás países del Mundo, abriendo un canal decomunicaciones entre Europa y EE.UU.En este gráfico podrán visualizar la evolución de Internet desde sus inicios en 1989 hasta1999:Referencia: Número de ordenadores conectados permanentemente a Internet, desde 1989hasta 1997.Internet crece a un ritmo vertiginoso, aunque es desde el 2000, cuando ese crecimiento seconvierte en algo mundial. Constantemente se mejoran los canales de comunicación con el
  3. 3. fin de aumentar la rapidez de envío y recepción de datos. Cada día que pasa se publican en laRed miles de documentos nuevos, y se conectan por primera vez miles de personas. Conrelativa frecuencia aparecen nuevas posibilidades de uso de Internet, y constantemente seestán inventando nuevos términos para poder entenderse en este nuevo mundo que no para decrecer.Internet crece exponencialmente, el número de usuarios aumenta de forma continua. En 2006se estimaba el número de internautas en 1.100 millones, aunque como veremos acontinuación, actualmente la cifra mundial de usuarios es en Junio de 2009 era de1.668.870,408 usuarios de Internet. Para el 2016 se estima que el número ascenderá a 2.000millones.Grafica que nos muestra el porcentaje de usuarios de Internet de acuerdo a la regióngeográfica donde están ubicados.Qué es un buscador y su funcionamientoCon más de 100 millones de páginas Web, casi otros tantos blogs, personas enviando e-mail,Internet esta saturada de información.La pregunta es: ¿cómo encuentro lo que busco? o ¿por dónde empiezo a buscar, aunque nosepa exactamente qué estoy buscando?Situémonos con un poco de historia en buscadoresAntes de que Google apareciera en Internet, la única manera de aparecer en un buscador eragracias al botón Add URL que había al final de las páginas de muchos buscadores comoAltavista.Debido al boom de Internet en el 2000, las empresas dejaron de invertir en publicidad,porque ya no era rentable y empezaron a investigar cómo aparecer entre los primerosresultados de los buscadores. A partir de este momento surgen los algoritmos automáticos ylas necesidades de los anunciantes de poder averiguar cuáles eran los factores másimportantes para poder aparecer en los buscadores.Google, como veremos más adelante no es el único buscador que existe, Ask, Google, Live yYahoo son los buscadores más importantes, los cuales suman el 98% de la cobertura deMercado. Un 95% de los usuarios de Internet en España buscan a través de Google, ¿perorealmente encuentran?. Un 4% de las visitas que llegan a través de buscadores se convertiránen clientes más o menos fieles y 1/3 de los que buscan creen que si estás arriba en losresultados de búsqueda es que eres relevante o líder del sector.
  4. 4. Pero, ¿Qué es un buscador?Definiremos buscador como los servicios de búsqueda accesibles al público en la red(Google, Yahoo, MSN, Altavista, Go, etc) que usan varias técnicas para acelerar y mejorarlas búsquedas que los usuarios realizan. La manera más habitual de elaborar los listados debúsquedas consiste en comparar la pregunta del usuario de Internet con un archivo índice dedatos procesados previamente y almacenado en una ubicación determinada, en lugar decomparar con millones de sitios de la red.Esta base de datos la elaboran los buscadores de manera periódica mediante un programallamado “Spider”, específicamente creado rastrear y leer las páginas de Internet. El Spideranaliza las páginas y extrae de ellas aquellos términos y palabras denominadas “clave”, quese guardan en el “archivo índice” junto con los enlaces a las páginas correspondientes. Laspreguntas o palabras de búsqueda que los usuarios realizan se comparan con este archivoíndice.Modos de búsqueda en InternetExisten dos modos de búsqueda por la WWW, que se explican a continuación: Por Temas Por Palabras clavesPor Temas
  5. 5. Yahoo, es el principal representante de este modo de búsqueda. Existen otros buscadores decómo Olé, pero son menos usados en España.Visite este enlace y conozca YAHOO: http://www.yahoo.com/Este tipo de búsqueda es ideal para cuando estamos buscando información sobre un temaimportante, como puede ser, "Revistas en Internet", o "Astronomía", o "Música Moderna".Por cada uno de estos temas, se nos mostrarán en el buscador muchas páginas que hablan dedicho tema. Cada página viene indicada con un título y una pequeña explicación, que nospuede dar una idea más concreta sobre lo que podemos encontrar en esa página sin necesidadde entrar a verla. En caso de que realmente nos interese ver toda la información de la páginaescogida, no tenemos mas que pulsar sobre su título, y automáticamente aparecerá lainformación en nuestra pantalla.El buscador de temas Yahoo dispone de muchas más direcciones en su base de datos que elbuscador Ole. Este último es un buscador que sólo tiene en cuenta páginas Web encastellano, por lo que su número es muy inferior. Por lo tanto para saber qué buscadordebemos usar, tenemos que tener una idea de si lo que buscamos puede estar o no encastellano. Si sospechamos que no, lo mejor es ir directamente al Yahoo, y buscar allí.Desde el punto de vista del administrador de un sitio Web es importante aparecer en este tipode buscadores por temáticas.Por Palabras clavesHay ocasiones en que buscamos temas demasiado concretos como para que se puedancategorizar en un buscador por temas. Por ejemplo, si queremos obtener información sobre eledificio "Empire State Building" de Nueva York, lo mejor es buscarlo mediante palabrasclave. El buscador por excelencia en España es Google y el que usan casi un 98% de lapoblación.Este tipo de buscadores, nos permiten concretar el tipo de búsqueda a realizar. Cuandobuscamos algo con varias palabras clave, el buscador puede pensar que queremos la páginasWeb en las que aparezca alguna de esas palabras, o todas ellas en la misma página, o todasellas en el mismo orden en que las hemos escrito, y seguidas una detrás de otra. Todo esto sepuede especificar antes de realizar la búsqueda.La “búsqueda inteligente” Smart RepresentationLa “búsqueda inteligente” o smart representation consiste en elaborar el índice según unaestructura que reduzca al mínimo el tiempo de búsqueda. Así, por ejemplo, estos datos seordenan con mucha mayor eficacia en forma de “árbol” que mediante un listado secuencial.En los índices “árbol” la búsqueda comienza desde arriba o nudo de raíz, por lo que paralocalizar términos que comienzan por letras del alfabeto anteriores a la letra inicial de lapalabra nudo, el buscador parte de la ramificación izquierda; y si la letra es posterior en elalfabeto, de la ramificación derecha. Cada nudo subsiguiente ofrece más ramificaciones hastaque se localiza el término en cuestión, o hasta concluir que no se encuentra en el árbol.
  6. 6. Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. Elprimero es un buscador ("search engine" en inglés) y el segundo un directorio. En Yahoo! ungrupo de personas llamados "surfers" recorren la Web seleccionando sitios, comentándolos yclasificándolos en una base de datos según unos criterios más o menos homogéneos.Efectivamente, luego existe un motor de búsqueda que busca en esa base de datos. Una basede datos hecha por humanos, más pequeña por tanto que la de cualquier gran buscador, y queestá formada por los datos introducidos por esos humanos (es decir, incluye valoracionescomo "categoría" o "país").Práctica: Diferencia entre un buscador y un directorio Práctica: Diferencia entre un buscador y un directorio Como prueba de la potencia de estos buscadores de palabras clave, podemos hacer el siguiente experimento. Buscamos nuestro nombre en Internet. Se introduce en la celda reservada para meter la palabra clave nuestro nombre. Si especificamos demasiado en un directorio no encontremos nada, pero si sólo ponemos un nombre y un apellido, puede que encontremos páginas Web donde aparezcan estos nombres, refiriéndose a personas que se llaman igual que nosotros, de las cuales puede haber varias en el Mundo. Abra el navegador e inserte en la barra de direcciones: www.google.com Introduzca su nombre completo y apellidos. Vemos que se proceden millones de páginas que están indexadas con tu nombre. Haremos ahora la comparativa: Abra el navegador – Abrir un directorio Yahoo: http://search.yahoo.com/dir Introduzca su nombre completo y apellidos. Tenga presente, que dependiendo del dato que introduzca, podrá darle resultados o no encontrar nada. ¿Por qué se produce esta diferencia en los resultados? Porque un directorio guarda una estructura de temas más amplia, mientras que un buscador indexa por palabras.
  7. 7. 1.- ¿Yahoo es un buscador como Google? Yahoo y Google son iguales y se basan en la misma estructura Ninguna de las respuestas es correcta. Sí, Yahoo muestra resultados de cuando se introduces una palabra.2.- ¿Qué es un buscador? Ninguna de las respuestas es correcta. Una herramienta para buscar conceptos según unos archivosrealizados aleatoriamente. Una técnica para acelerar y mejorar las búsquedas que los usuariosrealizan a través de Internet.3.- ¿Qué es la smart representation? La smart representation es lo que hace Google cuando muestra losresultados en sus páginas. La búsqueda inteligente se refiere a listados de temas. La “búsqueda inteligente” consiste en elaborar el índice según unaestructura que reduzca al mínimo el tiempo de búsqueda Por palabrasclave.4.- Modos de búsqueda a través de Internet. Ambas respuestas son correctas. Por temas, que busca por un tema en general o una categoría amplia. Por palabras clave que busca por temas más concretos o palabras.5.- ¿Diferencias entre un buscador y un Directorio? Un buscador es un motor de búsqueda que ordena según conceptos, yun directorio se basa en el trabajo de unos “surfers”que recorren la Internetseleccionando sitios y clasificándolos según unos criterios homogéneos. No existe diferencia entre un buscador y un directorio, ambos seutilizan para mostrar resultados tras una búsqueda. Un buscador se ordena según una estructura de árbol y un directoriono sigue estructura alguna.
  8. 8. 1.- ¿Yahoo es un buscador como Google? Yahoo y Google son iguales y se basan en la misma estructura Ninguna de las respuestas es correcta. Sí, Yahoo muestra resultados de cuando se introduces una palabra.2.- ¿Qué es un buscador? Ninguna de las respuestas es correcta. Una herramienta para buscar conceptos según unos archivos realizadosaleatoriamente. Una técnica para acelerar y mejorar las búsquedas que los usuarios realizan a travésde Internet.3.- ¿Qué es la smart representation? La smart representation es lo que hace Google cuando muestra los resultados en suspáginas. La búsqueda inteligente se refiere a listados de temas. La “búsqueda inteligente” consiste en elaborar el índice según una estructura quereduzca al mínimo el tiempo de búsqueda Por palabras clave.4.- Modos de búsqueda a través de Internet. Ambas respuestas son correctas. Por temas, que busca por un tema en general o una categoría amplia. Por palabras clave que busca por temas más concretos o palabras.5.- ¿Diferencias entre un buscador y un Directorio? Un buscador es un motor de búsqueda que ordena según conceptos, y un directoriose basa en el trabajo de unos “surfers”que recorren la Internet seleccionando sitios yclasificándolos según unos criterios homogéneos. No existe diferencia entre un buscador y un directorio, ambos se utilizan paramostrar resultados tras una búsqueda. Un buscador se ordena según una estructura de árbol y un directorio no sigueestructura alguna.
  9. 9. Cómo funciona el posicionamiento En esta lección, veremos cómo funciona el posicionamiento de las páginas Web que encontramos en los buscadores. Cómo rastrea Internet Cómo hacer para que se indexen mis páginas Cómo lee un buscador un sitio Web Organización de un SERP Elementos para fomentar la entrada de un robot en nuestra Web Puedo evitar ser rastreado Práctica: Diferencia existe entre los resultados orgánicos y de pagoCómo rastrea InternetPara acceder al mayor número de páginas posibles, los buscadores acceden a unas páginasintroducidas manualmente en una lista (semillas) y guardan las URL de los hipervínculospara descargarlas posteriormente.Una URL (sigla en inglés de uniform resource locator) es un localizador uniforme deRecursos, una secuencia de caracteres, de acuerdo a un formato estándar, que se usa paranombrar recursos, como documentos e imágenes en Internet, para su posterior localización.Ningún buscador dispone de información actualizada de todas y cada una de la páginas deInternet, pero realizan esfuerzos importantes para que sus robots rastreen todas las páginasposibles luchando contra estos dos factores: 1. Para luchar contra el gran volumen de páginas, los buscadores deben aumentar el número de páginas descargadas por segundo, y esto lo consiguen mejorando su conectividad y la localización geográfica y número de robots de rastreo. 2. Para tener siempre los contenidos actualizados, la solución no es tan sencilla como revisar cada Web más a menudo, porque esto supone un aumento enorme del
  10. 10. número de páginas a descargar. En estos casos lo que se hace es detectar el grado de variabilidad (también llamado frescura) de cada documento indexado para determinar cada cuando hay que revisarla.Cómo hacer para que se indexen mis páginasPara que un buscador rastree tu página Web, primero deberá conocer tu URL, esto podemosconseguirlo enviando la URL al buscador desde un formulario para que la guarde en su basede datos, o poniendo enlaces hacia nuestra URL en otras páginas ya indexadas, vamos adetallar más cada opción: El formulario de URLsLa mayoría de buscadores disponen de formularios que permiten introducir la URL de tupágina para ser indexada, proceso por el que el contenido de un sitio se añade a un motor debúsqueda, posteriormente.Este sistema suele ser menos interesante ya que un factor importante para aparecer en losprimeros resultados de un buscador es el número de enlaces hacia tu página y de estamanera nuestra página tendrá 0 enlaces entrantes.Google ha introducido una nueva e interesante manera de indicar al buscador quecontenidos de tu Web debe rastrear llamada sitemaps. Los enlaces entrantesAunque para que un robot nos rastree encontrando un enlace entrante a nuestra página esuna opción más lenta (hay que conseguir enlaces entrantes en sitios indexados, esperar queel robot los rastree y apunte nuestra URL y esperar que finalmente nos rastree a nosotros)sobre todo si contamos con el efecto sandbox, los enlaces entrantes son un factor importantepara conseguir una buena posición.Ambas prácticas tienen sus pros y sus contras, por esto es aconsejable llevar a cabo ambassimultáneamente.Cómo lee un buscador un sitio WebUna vez que un robot entra en una página se lee el código buscando identificar una serie dezonas: la cabecera, el cuerpo... y dentro de éstas, intenta localizar las etiquetas clave, esdecir, las palabras que identifican los contenidos, estructuras, archivos, secciones, etc. de laWeb.Sin embargo, esta lectura del código no tiene porque ser lineal. Google por ejemploposterga el contenido de las tablas. En la clásica página en la que los contenidos aparecenenmarcados por un par de tablas anidadas, fuera de las cuales apenas queda la dirección dela empresa o el copywrite, lo primero que leería sería precisamente aquello que aparecefuera de la tabla (es decir, información secundaria).¿Es eso realmente importante? Desde luego, ya que veremos que es una de las variables atener en cuenta es la posición del término de búsqueda dentro del cuerpo de la página.
  11. 11. La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que tengamos nosotros al leer la misma página desde un ordenador de bolsillo (ODB o PDA en inglés). Es una experiencia recomendable para programadores y diseñadores Web: al no tener espacio para mostrar todo el ancho de página, rompe el contenido mostrando columna a columna. Lo primero que vemos de una Web es un largo e inútil menú, y no la información que buscamos. El robot en cambio lee fila a fila, pero al anidar tablas en celdas de otras tablas mayores, hacemos que el orden de lectura del buscador sea diferente del que intuitivamente pensamos al ver la página en el navegador. Incluso el orden es algo importante. Algunos robots incluso, buscan las cosas en un determinado orden y sólo en él. De modo que si por ejemplo, la etiqueta <TITLE> no es la primera bajo la etiqueta <HEAD>, no archivará en su base de datos el título de la Web.Organización de un SERPSEPR viene de Search Engine Results Page (Páginas de Resultados de Buscadores), es lapágina de los resultados que nos muestra un buscador. Frecuentemente se hace referencia a lalista de resultados de un buscador.Si hablamos de Google podemos distinguir entre la lista de resultados orgánica y la de pago.La lista de resultados orgánica se basa en las páginas indexadas que rastrea y almacena elcrawler o robot, mientras que la lista de lago es aquella que nos aparece como enlacespatrocinados.A continuación vemos los resultados de búsqueda orgánicos o naturales en un buscadorcomo Google:
  12. 12. A continuación vemos los resultados de búsqueda de pago o SEM:Elementos para fomentar la entrada de un robot en nuestra WebPeso según frecuenciaComo resultado de estas búsquedas suelen ofrecerse numerosos enlaces o URL (unifiedresource locator) de sitios que contienen los términos o palabras claves buscadas. Pero todoslos enlaces resultantes tienen por lo general la misma relevancia, debido sobre todo adeterminadas ambigüedades de cada uno de los idiomas y a que el sistema es incapaz deinterpretar totalmente el contenido semántico de los textos. Para deducir los registros máspertinentes, el algoritmo de búsqueda aplica otras estrategias clasificatorias más complejas.Un método habitual, conocido como “peso según frecuencia”, asigna un peso relativo a las
  13. 13. palabras para indicar su importancia en cada documento; la asignación de relevancia se basaen la distribución de las palabras y en la frecuencia con que aparecen en cada uno de lossites.Sin embargo, como veremos a continuación este nuevo filtro tampoco es perfecto y es muyvulnerable al “pirateo” o a la trampa (la más simple de ellas sería la creación de Webúnicamente destinada a la acumulación, visible o invisible para el visitante del sitio, deenlaces) y se requieren más análisis.La importancia del ContenidoSi queremos que los robots nos visiten más a menudo, consiguiendo tener siempre nuestrocontenido actualizado en sus índices, deberemos aumentar el grado de variabilidad o frescurade nuestras páginas modificándolas a menudo y aportando nuevos contenidos de formaregular, esto lo veremos en el capitulo siguiente.Actualmente, una Web ha de ser dinámica, es decir, que presente un constante cambio decontenidos. Las Web corporativas y estáticas que no se actualizan en meses o años, hanquedado desfasadas y reemplazadas por la calidad, cantidad y originalidad de los contenidosque publiquemos.El secreto de un sitio Web son sus contenidos y, principalmente, que estos contenidos seanoriginales, ya que un buscador va a enseñar a los usuarios que hacen búsquedas lo optimo yactual para ellos.Análisis de enlacesPero ¿qué usa Google que hace más efectiva su búsqueda?. El análisis de enlaces, constituyela estrategia fundamental de discriminación y a la que mayor peso específico tiene sobre elSEO. Básicamente esta técnica estudia la naturaleza de cada página, si se trata de una“autoridad”(es decir, los enlaces de otras páginas remiten a ella) o si es un “eje” (remite aotras páginas). En otras palabras: la popularidad de la página donde se sitúa el enlace.Puedo evitar ser rastreadoExisten diferentes métodos llamados Métodos de Exclusión que permiten evitar que unbuscador rastree e indexe nuestra página, vamos a conocer algunos de ellos:El estándar de exclusión de robots, también conocido como el protocolo de la exclusiónde robots o protocolo de robots.txt es un método para evitar que ciertos bots que analizanlos sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web,público o privado, agreguen información innecesaria a los resultados de búsqueda. Losrobots son de uso frecuente por los motores de búsqueda para categorizar archivos de lossitios Webs, o por los webmasters para corregir o filtrar el código fuente. El archivo robots.txt - un archivo robots.txt en un sitio web funcionará como una petición que especifica que determinados robots no hagan caso a archivos o directorios específicos en su búsqueda. Esto puede realizarse, por ejemplo, para dejar fuera de una preferencia los resultados de una búsqueda avanzada, o de la creencia que el contenido de los directorios seleccionados puede ser engañoso o inaplicable a la clasificación del sitio en su totalidad.
  14. 14. Meta-Tags específicos para robots - son unos caracteres pertenecientes al HTML que se deben de escribir dentro del tag general <head> y que lo podemos definir como líneas de código que indican a los buscadores que le indexan por qué términos debe ser encontrada la página. Dependiendo de la utilización, caracterización y objetividad de dichos meta, se puede conseguir una excelente posición en el listado resultante de una búsqueda. Formularios de eliminaciónPráctica: Diferencia existe entre los resultados orgánicos y de pago Práctica: Diferencia existe entre los resultados orgánicos y de pago Abra el navegador e introduzca www.Google.es en la barra del navegador. Busque las palabras " formación profesional". Marque con un recuadro los resultados orgánicos, y marque con otro recuadro los resultados de SEM. Realice esta misma operación, con 2 ó 3 palabras que le interese.
  15. 15. 1.- ¿Es importante el contenido de una Web corporativa? No, aunque de forma interna para la compañía sí. El secreto de una Web no radica en el contenido, aunque esimportante. Sí, ya que una Web corporativa es la imagen de la empresa, debe serdinámica y con contenido de calidad.2.- ¿Es importante cómo se estructura el código para posicionarnuestra Web? No, ya que lo importante es el peso y la relevancia de las palabras denuestro sitio. El secreto de una Web es el cuerpo del código html. Sí, ya que el código determinará la lectura del buscador en nuestraWeb y así, descartará o cogerá lo que sea de interés.3.- ¿Que es el SERP? Es la página resultante de los resultados de búsqueda de pago. Es la página resultante de los resultados de búsqueda orgánicos. Es la página resultante de los resultados de búsqueda naturales y depago.4.- ¿Qué hace efectiva la búsqueda que ofrece Google? La notoriedad que cada uno le da a su página Web. El SEO que aplica. El análisis de enlaces que constituye una estrategia fundamental dediscriminación entre todas las Web.5.- ¿Qué es una Url? Es el nombre de mi Web. Es una secuencia de caracteres que se usa para nombrar documentos eimágenes en Internet, para su posterior localización. Es el título que le ponemos a cada una de las Web que se indexan.6.- ¿Puedo evitar ser rastreado? No. Los métodos de exclusión permiten que un buscador rastree o indexelas zonas que le indicamos de nuestra Web. A veces, en función de cómo este hecha la Web.7.- ¿Cómo podemos indexar las páginas de una Web? No se puede indexar las páginas de una Web manualmente, es elbuscador quien lo hace. Indicándole al crawler o robot la Url, a través de un formulario y conenlaces entrantes a mi Web. A través de un formulario.
  16. 16. 1.- ¿Puedo evitar ser rastreado? No. A veces, en función de cómo este hecha la Web. Los métodos de exclusión permiten que un buscador rastree o indexelas zonas que le indicamos de nuestra Web.2.- ¿Qué hace efectiva la búsqueda que ofrece Google? El análisis de enlaces que constituye una estrategia fundamental dediscriminación entre todas las Web. La notoriedad que cada uno le da a su página Web. El SEO que aplica.3.- ¿Es importante cómo se estructura el código para posicionarnuestra Web? No, ya que lo importante es el peso y la relevancia de las palabras denuestro sitio. El secreto de una Web es el cuerpo del código html. Sí, ya que el código determinará la lectura del buscador en nuestraWeb y así, descartará o cogerá lo que sea de interés.4.- ¿Que es el SERP? Es la página resultante de los resultados de búsqueda de pago. Es la página resultante de los resultados de búsqueda orgánicos. Es la página resultante de los resultados de búsqueda naturales y depago.5.- ¿Qué es una Url? Es el nombre de mi Web. Es el título que le ponemos a cada una de las Web que se indexan. Es una secuencia de caracteres que se usa para nombrar documentos eimágenes en Internet, para su posterior localización.6.- ¿Cómo podemos indexar las páginas de una Web? A través de un formulario. No se puede indexar las páginas de una Web manualmente, es elbuscador quien lo hace. Indicándole al crawler o robot la Url, a través de un formulario y conenlaces entrantes a mi Web.7.- ¿Es importante el contenido de una Web corporativa? No, aunque de forma interna para la compañía sí. El secreto de una Web no radica en el contenido, aunque esimportante. Sí, ya que una Web corporativa es la imagen de la empresa, debe serdinámica y con contenido de calidad.
  17. 17. Importancia del dominio y elección de palabras clavesEn esta lección, veremos conceptos relacionados con el dominio, trataremos sobre la relevanciaque tiene la elección de las palabras claves que definen nuestra Web. El dominio Cómo crear palabras claves El concepto de popularidad Elección de los términos clave o Keywords Elección del hosting y el efecto sobre el posicionamiento Práctica: Comprobar la antigüedad de un dominioEl dominioUno de los elementos más importantes de un sitio Web es su dominio. Si quiere que tenga algún pesoen posicionamiento es interesante que contenga la palabra clave principal del proyecto. Esto nosignifica que sea imprescindible, pero ayudará a mejorar la posición en la mayoría de motores debúsqueda. Ante la elección entre un dominio con o sin guiones, lo mejor es no usar ningún tipo deelemento “extraño” en la dirección, y en caso de ser necesario, sólo tenga como máximo un guión.Vea este enlace y la importancia de un buen dominio:http://www.inmoblog.com/portales-inmobiliarios/la-importancia-de-un-buen-dominio/Territorialidad del dominio
  18. 18. Los buscadores, cada vez más, están dando más importancia a la geoposición de un dominio, esdecir, que si la información de un dominio está enfocada a un país en concreto, este dominioaparecerá mejor posicionado en la edición local de ese buscador.Esto significa que si el contenido de un dominio está enfocada a España, lo mejor es usar un dominio.ES, que si está enfocada para Estados Unidos usemos un dominio .US o si está enfocada para Greciausemos un .GR.Esto no significa que no podamos usar los dominios .COM o .NET para incorporar información, pero enestos casos los haremos de una forma más genérica. Al fin y al cabo… ¿para qué existen dominiosterritoriales si luego no tienen ninguna influencia en los usuarios o los motores de búsqueda?Edad del dominioQue un dominio lleve mucho tiempo registrado y en línea es un buen elemento a tener en cuenta paraque se indexe de forma correcta y se tenga en cuenta como lugar destacado de Internet.Aún así, aquellos que compran un dominio pensando en mantener su edad histórica, han de saber quehoy en día la mayor parte de buscadores también son registradores de dominios, de forma que tienencontrol absoluto sobre los cambios de titularidad o que haya en los mismos.Fuentes internas de Google dicen que si un dominio cambia de titular, ese dominio queda reseteadoen su edad y el motor lo tratará como uno nuevo. Aún así, los resultados de búsqueda por ahora noindican eso.En caso de que tengas la posibilidad de adquirir un dominio antiguo, es muy interesante ver qué habíaen él históricamente y para ello puedes usar la herramienta Wayback Machine donde verás de formatemporal el contenido de un sitio a modo de caché.Compruebe la antigüedad de su dominio, con esta herramienta tendrá acceso al contenido que habíapublicado en su Web antiguamente: http://www.archive.org/web/web.phpDominios AparcadosEn la actualidad cuando se compra un dominio que no está pensado desarrollarse es posibleestablecerlo en sitios donde, al entrar, aparece una página en la que únicamente hay enlaces de pago.Aunque este sistema puede ser rentable, en el momento en el que se decida lanzar un proyecto bajo
  19. 19. este dominio es probable que te encuentres con que los robots de búsqueda no pasan a indexarlo ymucho menos posicionarlo.En caso de encontrarte en esta situación lo mejor es comenzar a generar contenido y cuandohayan pasado al menos 6 semanas dar de alta el dominio en los buscadores de nuevo, crearSitemaps y comenzar un proceso de reinclusión, como el que permite Google.Cómo crear palabras clavesUna vez analizados los elementos estructurales del código de sites veamos el análisis de laimportancia de las palabras claves. Los conceptos generalmente usados son: Frecuencia Recuento Peso RelevanciaEl trabajo sobre el código de una página de cara a su posicionamiento consiste en medir cadauna de estas variables en cada una de las áreas y modificar su contenido si sale de los márgenesrecomendados por el estudio lexométrico para uno o varios buscadores.Definamos ahora estos conceptos:FrecuenciaEs el número de veces que el término de búsqueda aparece en el área. Varía en función de si losrobots "leen" partiendo palabra o no, de si distinguen o no acentos, de si se elige la opción debúsqueda exacta y de si la búsqueda es sensible o no a las mayúsculas ("case sensitive" eninglés).Por ejemplo: Scooter, el robot de Altavista, distingue como palabras diferentes "leon" y "león"o "enfermería" y "enfermeria" (buscada 12 veces más que la anterior). Sin embargo siencuentra "Leon" y "leon", asignaría una frecuencia uno al término de búsqueda "leon" (ya queparece ser sensible a la distinción mayúsculas/minúsculas).Googleboot, el robot de Google, por el contrario ha modificado su algoritmo recientementepara equiparar "leon" a "león" y "Leon" como la misma palabra (los usuarios no suelen poneracentos :)) aunque al igual que Scooter sigue sin partir palabra (de modo que en la frase "Losciberpunks piensan que el ciberpunk es algo más que un género literario", la frecuencia de"ciberpunk" sería uno y no dos tanto para Scooter como para Googleboot).En este ejemplo vemos como Google tiene en cuenta la palabra "Leon" y "león", de la mismamanera:
  20. 20. RecuentoCuenta el total de palabras en un área excluyendo las etiquetas HTML.PesoEl peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en lapágina o el área analizados. Dado que el término de búsqueda puede estar formado por variaspalabras, la fórmula general del peso podríamos definirla como: P=n*F/Rn = número de palabras del término de búsqueda.R = Recuento del área.F = Frecuencia del término de búsqueda.En cualquier caso hay una amplia discusión sobre el papel del peso y su cálculo exacto. Engeneral, suele rondar el 3% para las páginas mejor posicionadas... aunque obviamente esto sedebe a que la frecuencia y el recuento de estas suele ser similar. Es lo que en lexometríallamaríamos un caso de "multicolinealidad".En la práctica vigilar el peso sirve como chequeode la proporción entre frecuencia y recuento, no tanto como una variable independiente queactúe por si misma.RelevanciaLa relevancia mide la distancia entre el comienzo del área y el lugar donde aparece la palabraclave. Claro que hay que tener en cuenta la forma en la que los robots "leen" la página, puesalgo que esté gráficamente más arriba al verlo en el navegador, no necesariamente está másarriba en el código. Recordemos que Google por ejemplo "salta" las tablas y las lee al final.Si el término de búsqueda aparece como primera palabra del área la prominencia es 100% y sies la última el 0%. Si aparece varias veces, se promedia. Es decir, a no ser que hagamos R muybaja, dejando la palabra clave sólo como primera palabra del body, nunca tendrá un 100%,aunque lo más recomendable es colocarla con cierta profusión en el primer tercio de cada área.Un ejemplo de artículo podría ser éste (una supuesta Web de ciencia con un nivel medio-bajo):La vida empezó “en el fondo del mar”. Una nueva y controvertida teoría sobre el origen de lavida en la Tierra ha dado que hablar en la comunidad científica.La nueva concepción sostiene que los organismos vivos se originaron en los que llama“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro dehierro.La teoría, propuesta por los profesores William Martin, de la Universidad de Düsseldorf(Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow,cuestiona de la raíz ideas convencionales.Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, loscuales se fueron juntando para generar una estructura celular básica.La nueva propuesta señala, en cambio, que la célula se formó primero y que después se rellenócon moléculas de vida.Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
  21. 21. organismos en planetas donde antes se pensaba que sería imposible.Tras la lectura de este fragmento de noticia podrías plantearte cuáles son los conceptos que talvez interesaría posicionar: “dónde comenzó la vida” y “origen de la vida”. Estas dos frasespueden ser una búsqueda que la gente haga y por tanto es algo que debes plantearte posicionar.Además podrías destacar los nombres de los científicos.Así pues, puedes dejar redactado el artículo de la siguiente manera:El origen de la vida en el fondo del marUna nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar enla comunidad científica.La nueva concepción sostiene que los organismos vivos se originaron en los que llama“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro dehierro.La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de laUniversidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de InvestigaciónAmbiental en Glasgow, cuestiona de la raíz ideas convencionales.Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, loscuales se fueron juntando para generar una estructura celular básica.La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formóprimero y que después se rellenó con moléculas de vida.Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollenorganismos en planetas donde antes se pensaba que sería imposible.Una vez tienes el texto completamente redactado (con las principales frases con las queconseguir tráfico en párrafos con cierta distancia, una combinación de palabras cada 2 ó 3párrafos), debes plantear si debe quedar como texto plano o marcando algunas palabras dealguna forma.Con este nuevo título y el haber introducido un par de veces los conceptos es muy probable queel posicionamiento mejore en muchos buscadores. Eso sí, hay que tener en cuenta una cosa: noabusar. La lectura para una persona es muy similar en los dos textos, aunque en el segundo,hacemos que la lectura para los buscadores mejore significativamente.El origen de la vida en el fondo del marUna nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar enla comunidad científica.La nueva concepción sostiene que los organismos vivos se originaron en los que llama“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro dehierro.La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de laUniversidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de InvestigaciónAmbiental en Glasgow, cuestiona de la raíz ideas convencionales.Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, loscuales se fueron juntando para generar una estructura celular básica.
  22. 22. La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formóprimero y que después se rellenó con moléculas de vida.Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollenorganismos en planetas donde antes se pensaba que sería imposible.En este último fragmento, el haber añadido conceptos en negritas y cursivas hará que el robotde búsqueda se quede atento a esos conceptos y les de cierta importancia por encima del restodel documento.El concepto de popularidadCuando Google apareció en la Web, allá por el 2000, la noticia se transmitió rápidamente porel viejo sistema del boca a boca. Expertos y usuarios finales pensaban que por fin había alguienun motor de búsqueda imparcial y realmente útil. ¿Por qué? Sobre todo por su capacidad parajerarquizar resultados.Hasta entonces, el lugar en la lista de resultados venía dado exclusivamente por el grado deasociación de la página al término de búsqueda en la base de datos del buscador (en los buenosbuscadores) o incluso por la antigüedad (en los malos) Google fue el primero en completar laasociación con un criterio jerárquico completamente diferente e independiente de loscomponentes del código: la "popularidad".¿Qué significa esto? De un modo muy sencillo podríamos decir que tu página será tanto másimportante a la hora de ordenar resultados, cuantas más enlaces en otras páginas indexadas leapunten. ¿Eso era todo? Realmente no. Si el "índice de popularidad" fuera igual a la suma delnúmero de enlaces que nos apuntan, bastaría con crear una multitud de páginas que apuntaran ala nuestra para mejorar su posicionamiento. Los algoritmos de "popularidad" se defienden deun modo sencillo pero efectivo de esta posible trampa:El "índice de popularidad" es en realidad la suma del número de páginas que nos apuntanponderada por el índice de popularidad de cada una de ellas (medido en porcentaje sobre lamáxima puntuación alcanzable).Podríamos resumirlo en la siguiente fórmula: P(x) = 1/P(1) + 1/P(2) + ..... + 1/P(n)Esta fórmula se ve ponderada según el término de búsqueda por el grado de relación con lostérminos buscados de las páginas que nos apuntan, de modo que la fórmula de ordenación finalde resultados sería un poco más compleja y sería parecida a: F (x) = G(x) *(1/G(1)*P(1) + 1/G(2)*P(2) + ..... + 1/G(n)*P(n) )Siendo G el algoritmo que en función del análisis del código de una página y del texto delenlace que nos apunta establece el grado de relación de esta con el término de búsqueda y quese mide también como un porcentaje del máximo alcanzable.Es decir, Google representa un avance en las herramientas de indexación y búsqueda en laWWW porque cuando solicitas una búsqueda realiza un trabajo en cuatro fases:
  23. 23. 1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda. 2. Calcula sus distintos grados de asociación. 3. Ordena las URL en función de su popularidad ponderada con el grado de asociación de las páginas que le apuntan y del texto del enlace que nos apunta desde ellas. 4. Presenta los resultados.Hay que señalar sin embargo que aunque las tecnologías basadas en la popularidad se vanextendiendo, ni siquiera Google las incorpora homogéneamente: por ejemplo, en la ordenaciónde resultados de su directorio simplemente ordena dentro de cada categoría en función delíndice de popularidad (representado por una barrita verde). Si lo pensamos esto tiene su lógica,ya que se supone que el criterio que nos lleva a una categoría determinada de un directorio esel mismo para todas las Web incluidas en él, lo que le exime de realizar el trabajo deasociación URL/criterio de búsqueda.Otra nota importante es la importancia del “qué” nos apunta. El texto del enlace puede, si elnúmero de enlaces es suficiente, llegar a determinar la asociación de una página con untérmino de búsqueda que ni siquiera contenga en su contenido. Como escribe Adam Mathes:Descubrí que cuando buscaba el término "Internet rockstar" devolvía la página de Ben[Brown]. En aquel momento, sin embargo el ni siquiera tenía la frase en su página aunque lalegión de Blogger quinceañeros que le enlazaban siempre usaban esa frase en sus enlaces.Este hecho, recientemente comprobado en Google, implica no sólo la inutilidad de lastradicionales campañas de banners de cara a la popularidad (ya que los enlaces pasan por unservidor intermedio), sino también que frente al tradicional énfasis en los gráficos, el elementoclave del enlace vuelve a ser el texto.Elección de los términos clave o KeywordsEs lo primero y parece obvio... Pero no lo es: no lo es por varios motivos: en primer lugar porque comoya hemos visto, en la mayoría de los buscadores no es lo mismo una palabra con acento que la mismasin acento ("enfermería" que "enfermería" por ejemplo), por lo que de optimizar para una(normalmente la que no tiene acentos) estaríamos perdiendo los que buscan la otra. Claro que nosiempre podemos elegir y tendremos que forzar en muchos casos una "doble optimización" para lapalabra con y sin acento.Por otro lado, conseguir resultados óptimos para una única palabra nos sitúa en la competición másdura. En general será más fácil obtener un buen posicionamiento cuanto más específica sea labúsqueda, es decir, posicionar www.guiadeenfermeria.com para "enfermería" será siempre más difícilque para "enfermería clínica".
  24. 24. Lo recomendable es jugar con un término principal para el que optimizamos el código consciente yrigurosamente y un término secundario o dos para el que dejaremos pistas en el código pero sinforzar la programación. Pero, ¿cómo elegimos el término principal?. Tres deberían ser los criterios: el término más buscado relacionado con el tema principal de nuestra página el término por el que los usuarios que ya nos conocen buscarían nuestra página el término más atractivo para el potencial público de nuestra páginaCon esta herramienta que proporciona Google podremos ver cuál es el volúmenes de búsquedas quetiene una palabra clave: http://www.google.com/insights/search/#Elección del hosting y el efecto sobre el posicionamientoDe la misma manera que el dominio determinará, en muchos casos, nuestro posicionamientoorgánico, es importante la elección del hosting. El hosting determinará en gran medida la respuestade nuestro site, por lo que es importante que esté situado en el lugar para el que está respondiendo.Si queremos alojar una Web española es necesario que la Web esté en un hosting Español. Así comola Geolocalización del dominio es vital, la elección del hosting también afectará a la localización.Definición sobre hosting o alojamiento de nuestra Web: http://es.wikipedia.org/wiki/HostingPráctica: Comprobar la antigüedad de un dominio Práctica: Comprobar la antigüedad de un dominio Abra una nueva pantalla del navegador. Introduzca http://web.archive.org Introduzca la URL del la página que se desea saber (indicar que sea www.lavanguardia.es).
  25. 25. Nos indica que el dominio es de 01 de enero de 1996 Realice esta misma operación, con 2 ó 3 dominios que le interese conocer.1.- ¿Qué es una palabra clave y cómo nos afecta Una palabra clave es el término con los que vamos a optimizar nuestrositio. Una palabra clave es la palabra con que se asocia a nuestra Web. Una palabra clave determina el sector de nuestra Web.2.- Definamos el concepto de popularidad como: El "índice de popularidad" es la suma del número de páginas que nosapuntan por el índice de popularidad de cada una de ellas. La popularidad es lo conocida que es nuestra marca en Internet. Es el número de links que apuntan a nuestra página.3.- ¿Qué es la relevancia? Es el número de veces que el término de búsqueda aparece en elcontenido.
  26. 26. Es la importancia de nuestra Web en los buscadores. La relevancia mide la distancia entre el comienzo del area y el lugardonde aparece la palabra clave.4.- ¿Es importante la edad de un dominio? Sí, es interesante adquirir un dominio antiguo. Sí es importante aunque hay que comprobar que no se haya reseteadola edad y haya perdido toda la antigüedad. No.5.- Definamos recuento como: Es la cuenta el total de palabras en un área excluyendo las etiquetasHTML. Total de veces que sale nuestra Web en un buscador y en directorio. Total de veces que sale nuestra Web en un buscador.6.- ¿Es lo mismo el dominio y la URL? Ambas respuestas son correctas. El dominio es uno de los elementos más importantes de un sitio Web. El dominio es parte de la composición de la URL.7.- ¿Cómo elegir una Keywords? Según el tema principal de nuestra Web, por como los usuarios nosbuscarían en nuestra Web. En función del sector de la empresa. Por las palabras los usuarios nos relacionan.8.- ¿Qué es la Frecuencia? Es el número de veces que búscan nuestra Web en Google. Número de veces que sale nuestra Web en un buscador. Es el número de veces que el término de búsqueda aparece en el áreadel contenido de nuestra Web.9.- ¿Qué es el peso? El peso es el total de Kilobytes que pesa mi Web. El peso es el porcentaje que el término de búsqueda representa sobreel total de palabras en la página o el área analizados. El peso se mide en función de cada Web y tiene que ver con laspalabras claves.1.- ¿Qué es una palabra clave y cómo nos afecta Una palabra clave es el término con los que vamos a optimizar nuestrositio. Una palabra clave es la palabra con que se asocia a nuestra Web. Una palabra clave determina el sector de nuestra Web.2.- Definamos el concepto de popularidad como:
  27. 27. El "índice de popularidad" es la suma del número de páginas que nosapuntan por el índice de popularidad de cada una de ellas. La popularidad es lo conocida que es nuestra marca en Internet. Es el número de links que apuntan a nuestra página.3.- ¿Qué es la relevancia? Es el número de veces que el término de búsqueda aparece en elcontenido. Es la importancia de nuestra Web en los buscadores. La relevancia mide la distancia entre el comienzo del area y el lugardonde aparece la palabra clave.4.- ¿Es importante la edad de un dominio? Sí, es interesante adquirir un dominio antiguo. Sí es importante aunque hay que comprobar que no se haya reseteadola edad y haya perdido toda la antigüedad. No.5.- Definamos recuento como: Es la cuenta el total de palabras en un área excluyendo las etiquetasHTML. Total de veces que sale nuestra Web en un buscador y en directorio. Total de veces que sale nuestra Web en un buscador.6.- ¿Es lo mismo el dominio y la URL? Ambas respuestas son correctas. El dominio es uno de los elementos más importantes de un sitio Web. El dominio es parte de la composición de la URL.7.- ¿Cómo elegir una Keywords? Según el tema principal de nuestra Web, por como los usuarios nosbuscarían en nuestra Web. En función del sector de la empresa. Por las palabras los usuarios nos relacionan.8.- ¿Qué es la Frecuencia? Es el número de veces que búscan nuestra Web en Google. Número de veces que sale nuestra Web en un buscador. Es el número de veces que el término de búsqueda aparece en el áreadel contenido de nuestra Web.9.- ¿Qué es el peso? El peso es el total de Kilobytes que pesa mi Web. El peso es el porcentaje que el término de búsqueda representa sobreel total de palabras en la página o el área analizados. El peso se mide en función de cada Web y tiene que ver con laspalabras claves.
  28. 28. Herramientas de optimización y evaluación En esta lección, trataremos de conocerlas herramientas necesarias para conseguir el mejor posicionamiento de nuestra Web. Primer paso Herramientas de analítica Web Práctica: Análisis de una Web Primer paso Para conocer el posicionamiento SEO desde un punto de vista analítico podemos recurrir a una serie de herramientas que nos proporcionarán la información precisa necesaria. Antes de pasar a ver algunas de las aplicaciones más conocidas y útiles vamos a hacer un glosario de términos. Ranking: Google PageRank (PR): Google ofrece una herramienta denominada “Page Rank”, un valor numérico con el que se representa la importancia que una página Web tiene en Internet. Este valor, mediante un análisis constante, sirve de referencia para determinar la posición de un site dentro de los resultados de búsqueda. Cuanto mayor es el PR mayor es la importancia de nuestro site. Technorati: es un motor de búsqueda de Internet para buscar blogs. Esta aplicación utiliza y contribuye al software de código abierto mediante una comunidad de desarrolladores activa, a la que pertenecen muchos desarrolladores de la cultura del software libre. Visite este enlace y recibirá más información acerque de lo que es un motor de búsqueda : http://es.wikipedia.org/wiki/Motor_de_b%C3%BAsqueda Si desea ampliar la información acerca del termino código abierto o software libre: http://es.wikipedia.org/wiki/Open_source Alexa: Alexa es una Web de www.amazon.com, que ofrece información acerca de la cantidad de visitas que recibe un sitio Web. Ofrece unos datos fiables y objetivos, por lo que su consulta es imprescindible a la hora de realizar el seguimiento de visitantes de un site.
  29. 29. Si desea instalar la barra de herramientas de Alexa: http://www.alexa.com/site/download DMOZ:. También conocido como Open Directory Project (ODP), es un proyecto colaborativo en el que editores voluntarios categorizan enlaces a páginas Web. El directorio de Google está basado en el DMOZ, al cual añade la ordenación según el page rank de cada página categorizada. Si desea más información de este directorio: http://www.dmoz.org/World/Espa%C3%B1ol/ Index pages: Este valor indica la cantidad de links o enlaces propios que una Web tiene en buscadores (links internos que van a otras secciones de la Web). Backlinks: son los enlaces que recibe una determinada Web desde otras páginas. Keywords: palabra clave o palabra que resume los contenidos de una Web. Son las palabras que esperamos que los usuarios de buscadores usen para sus consultas. W3C: son las siglas del World Wide Web Consortium,asociación que establece estándares para las principales tecnologías sobre las que se basa Internet. Que un site cumpla las normas del W3C va a significar una mejora sustancial en la eficiencia de su funcionamiento, y ello contribuye a la mejora en su posicionamiento en buscadores. RSS: Real Sindicate System:Herramientas de analítica Web WebCEOPara las empresas o particulares que cuentan con una Web, WebCEO es una utilidad que te permitehacer conocer los puestos que ocupas en motores de búsqueda y analizar el tráfico y las visitas a laWeb a fin de optimizar el contenido y diseño del sitio. Incorpora herramientas especializadas enmarketing de motores de búsqueda, análisis inteligente de tráfico Web, y mantenimiento óptimo delsitio Web.
  30. 30. El programa te ayuda a encontrar las mejores palabras clave para búsquedas efectivas de tu página,optimizar su contenido para alcanzar los mejores puestos en los motores de búsqueda (además derealizar envíos masivos de tu URL a los mismos y comprobar periódicamente tu clasificación) oanalizar al detalle las visitas producidas en tu Web, entre otras cosas.De esta manera podrás tener una idea exacta de cómo promocionar tu página de la mejor forma, québuscan tus clientes y qué es lo que menos les gusta, y cómo adaptar los servicios que ofreces a lasnecesidades y demandas de tus visitas.El programa también incluye un módulo que te permite modificar ficheros HTML y subirlos alservidor FTP directamente desde WebCEO. Para conocer más acerca de Web CEO o descargarlo:http://www.webceo.com/ Analytics, una herramientas imprescindible para nuestro siteGoogle pone a la disposición de webmasters una herramienta para empresas que proporcionainformación sobre el tráfico del sitio Web desde distintos puntos de vista: patrones decomportamientos, segmentación, horarios, páginas que visitan. Ofrece una serie de funcionespotentes, flexibles y fáciles de usar con las que analizar su tráfico y mejorar sus campañas demarketing.Web Analytics busca comprender lo que sucede en un sitio web usando técnicas de análisis de datos.Nos permite desde medir el tráfico de una web de manera muy general o de manera especifica hastalos niveles de análisis más complejos.Analytis es una herramienta muy eficaz para reorientar la optimización del posicionamiento del site: Permite analizar las palabras clave por las que los usuarios más nos visitan, aportando esto un flujo de información que nos permitirá verificar si estos usuarios encuentran lo que buscan o no en la web. Muestra patrones de navegación y reebote de las páginas, que páginas son las más visitadas y con que páginas los usuarios abandonan. Nos genera listados de palabras clave, que podemos analizar en el contenido.Analytics también nos permite establecer Indicadores Clave de desempeño (KPI – Key PerformanceIndicators), que nos serán ultimes para medir el logro de los objetivos y metas del proyecto o
  31. 31. negocio:Estos indicadores pueden ser: Indicadores Básicos: indicandonos el número de visitas, usuarios únicos, páginas vistas, origen,… Indicadores Avanzados: Mostrando el porcentaje de abandono, páginas vistas por visita, porcentaje de conversión, valor de objetivo por vista,.. Indicadores de Comercio electrónico: en cuantro a producto, servicio o información.Nos mostraran información de la lealtad de nustros usuarios, porcentaje de visitas nuevas, palabras clave, porcentaje de conversión...Cómo Instalar Google Analytics:1. Vaya a http://www.google.com/analytics/2. Haga clic en registrate ahora mismo.3. Podrá acceder a su cuenta de analytics si dispone de una cuenta de Google. Introduzca sus datos yaccederá al panel de control del analytics.
  32. 32. Haga clic en añadir sitio Web e itroduzca la Url de la web.
  33. 33. Pulse Finalizar. Automáticamente le mostrará un código, que deberá introducir en el pie de la páginaWeb.Vuelva a su cuenta de Google analytics y hagaz clic en Finalizar.Hay que tener en cuenta, que analytics es una fuente fiable de información a cerca de una web,aunque no debemos olvidar que existen algunas razones por las que no debemos de olvidar otrasherramientas importantes para el SEO.La primera de estas razones es que Analytics sólo registra la información en los navegadores queejecutan javascript. Esto proporciona información de calidad acerca de las tendencias del usuarios,pero no detecta los comportamientos que los robots o arañas de los buscadores hacen en una web, yesto para el posicionamiento es vital.En segundo lugar, si solo confiamos en una fuente de datos, podemos caer en el error de nos darnoscuenta de otros datos significativos que no aparecen en esta herramienta, por lo que es de vitalimportancia tener siempre al alcance varios métodos de análisis SEO que proporcione informacióndiversa.Si desea conocer más acerca de analytics: http://www.google.com/analytics/tour.htmlXinu ReturnsXinu Returns es una completa herramienta on-line que proporciona de manera resumida toda clasede información técnica sobre un sitio Web y/o dominio que le indiquemos. Es ideal para un análisisrápido SEO ya que podrás conocer sin dificultad elementos relevantes para el posicionamiento como
  34. 34. PageRank, Alexa Rank, enlaces entrantes, etc. que posee cualquier Web.Si desea ampliar la información acerca de esta herramientas:http://elgeek.com/xinu-returns-informacion-sobre-sitios-websXinu Returns realmente brinda mucha información, entre la que podemos mencionar: Ranking de la página en Google, Technorati, Alexa y DMOZ. Imagen de captura de la página Web. Estado del dominio (IP, autor, país…). Información sobre los subscriptores de la página (Sindicación). Validación de la página con los principales estándares (XHTML, CSS, RSS). Número de páginas indexadas en los buscadores de Google, Google Images, Yahoo! y Live.En este enlace podrá ver toda la información acerca de su Web: http://xinureturns.com/ Práctica: Análisis de una Web Práctica: Análisis de una Web Utilizaremos una herramienta fácil y eficaz que nos dará los elementos más relevantes. Acceda a la dirección: http://www.sitetrail.com/xinureturns.com
  35. 35. Dentro de Xinu, introduca la URL: www.mundoanimalia.comAhora resalte los elementos más importantes para el posicionamiento de una Web: 1. Google Page Rank (PR) 2. Tecnorati 3. Alexa 4. Dmoz 5. Index pages 6. Back links 7. Keywords 8. W3C 9. Rss¿Dirías, con lo que has aprendido en esta lección, que esta página esta bienposicionada?
  36. 36. 1.- ¿Qué es el Google Page Rank y para qué sirve? El Page Rank es un valor numérico que Google atribuye anuestra Web y que servirá de referencia para determinar laposición de un site dentro de los resultados de búsqueda. Ambas respuestas son correctas. El Page Rank es una herramienta de Google.2.- ¿Alexa es un contador de visitas de nuestro site? Ambas respuestas son correctas. Sí, ofrece unos datos fiables y objetivos, es imprescindible ala hora de realizar el seguimiento de visitantes de un sitio. No.3.- ¿Existe alguna herramienta que nos proporcioneinformación técnica y SEO acerca de un sitio Web? Sí, Xinu Returns. Ninguna de las respuestas es correcta. No4.- ¿Es importante saber más sobre las visitas que recibimosen nuestra Web? Sí, con Google analytics podremos analizar su tráfico ymejorar nuestras campañas de marketing. Sí, con Google analytics obtenemos información acerca denuestras visitas y adaptaremos nuestro sitio en función a lademanda, analizando el tráfico y pudiendo mejorar la campañade marketing. No.5.- ¿Es importantes darse de alta de DMOZ? No, ya que es un directorio. Sí, porque añade la ordenación según el page rank de cadapágina categorizada. Sí, el directorio Dmoz se basa en los resultados de búsquedade Google.
  37. 37. 1.- ¿Qué es el Google Page Rank y para qué sirve? El Page Rank es un valor numérico que Google atribuye a nuestraWeb y que servirá de referencia para determinar la posición de un sitedentro de los resultados de búsqueda. Ambas respuestas son correctas. El Page Rank es una herramienta de Google.2.- ¿Alexa es un contador de visitas de nuestro site? Ambas respuestas son correctas. Sí, ofrece unos datos fiables y objetivos, es imprescindible a la hora derealizar el seguimiento de visitantes de un sitio. No.3.- ¿Existe alguna herramienta que nos proporcione informacióntécnica y SEO acerca de un sitio Web? Sí, Xinu Returns. Ninguna de las respuestas es correcta. No4.- ¿Es importante saber más sobre las visitas que recibimos ennuestra Web? Sí, con Google analytics podremos analizar su tráfico y mejorarnuestras campañas de marketing. Sí, con Google analytics obtenemos información acerca de nuestrasvisitas y adaptaremos nuestro sitio en función a la demanda, analizando eltráfico y pudiendo mejorar la campaña de marketing. No.5.- ¿Es importantes darse de alta de DMOZ? No, ya que es un directorio. Sí, porque añade la ordenación según el page rank de cada páginacategorizada. Sí, el directorio Dmoz se basa en los resultados de búsqueda deGoogle.
  38. 38. Optimiza el diseño y la programación de su WebLa optimización de una Web se basa en unos algoritmos que cambian y se perfeccionanconstantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de losúltimos dos años. Los mecanismos algorítmicos que yacen bajo ellas se caracterizan porpermanecer estables a lo largo del tiempo. Son conocidas como "los mandamientos" yreconocidas como parte del "core" del algoritmo común a todos los buscadores poringenieros y matemáticos de los principales motores en las cada vez más conferencias yencuentros internacionales entre hackers y diseñadores de buscadores en los que cada vezmás se prodiga la comunidad de expertos ("hacker" =experto informático). Rastreo de un sitio Web Elementos On-Page Robots, nofollows y otros Mapa del sitio URL amigable Linking interno Programación en CSS Práctica: Analisis de una Web según criterios de SEORastreo de un sitio WebUno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio Webes conocer los criterios que utiliza el Robot o crawler del motor de búsqueda en relación conlas diferentes partes del documento HTML.A continuación vamos a definir la estructura típica de un documento HTML y seguidamenteveremos cómo ésta puede afectar a su posicionamiento.Esta es la típica estructura de un documento HTML:<HTML><HEAD>
  39. 39. <!-- información de cabecera utilizada para contener información adicional acerca de estedocumento, y que no se muestra en pantalla --></HEAD><BODY><!-- todo el HTML a visualizar -->::::::</BODY></HTML>Elementos On-PageLlamaremos elementos On Page a los que dependen directamente de la aplicación en nuestra Web.Estos factores normalmente se aplican por técnicos de las Web, aunque es necesario conocerloscuando se trabajan o se plantean nuevas categorías dentro de la Web.Como hemos comentado anteriormente, los crawlers o robots de los buscadores dan la importanciaque se merecen a los elementos HTML que encontraremos dentro del código de nuestro sitio Web.Eso implica una gran concordancia entre estos elementos y las Keywords relevantes en nuestrosector.A. Información de la cabeceraEl primer elemento de un documento es la etiqueta <HEAD>, es decir, la cabecera del documento.En esta etiqueta se encuentra toda la información que va a describir las características deldocumento: título, descripción, palabras clave, Copyright, autor...En el área del header encontraremos algunos elementos que a continuación analizaremos enprofundidad: - Título de máximo 5 palabras en el que la primera sea tu palabra clave objetivo. - Metatag de descripción igual al título. - Metatag de palabras clave con las mismas 5 palabras separadas por comas.
  40. 40. B. Área del título<TITLE>: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste laspalabras clave por las que queremos que nuestro sitio sea encontrado. La extensión del título nodebe superar los 75 caracteres.A continuación mostraremos donde se ubica el titulo en una web: Área de metainformaciónEs la encuadrada dentro de las etiquetas <META>. Esta es una etiqueta genérica de informaciónadicional, tuvo su época dorada cuando Altavista lideraba el mundo de los buscadores, aunqueahora ha perdido parte de su relevancia. Su sintaxis es <META NAME="nombre del atributo"CONTENT="variables o directrices">Los principales atributos del Área de Metainformación son los siguientes: DESCRIPTION: Es la descripción de lo contenido en el documento. En ella se ha de reflejar en pocas frases, la síntesis de todo el documento, toda la información. KEYWORDS: son las palabras clave. Facilitan al buscador información del documento, indicándole las palabras más importantes por las que quiere ser encontrado en un buscador.
  41. 41. En este enlace podrá ver las Keywords de si Web: http://www.webconfs.com/website-keyword-suggestions.phpEjemplo de una etiqueta "keywords" de la página http://www.ienrformacion.es/<META NAME="Keywords" CONTENT="Formación, Formacion barcelona, Formación Bcn, Formaciónsubvencionada Barcelona, Formación Subvencionada, subvenciones catalunya , cataluña, barcelonasubvenciones, cursos gratis barcelona, cursos, cursos barcelona, IenR formación, grupo IenR,Formación técnica, formación jlg, habilidades directivas, conocimientos sectoriales, ofimática, RRHHy management, Idiomas, Contabilidad y finanzas, Productividad, Técnica, Procesos de selección,prevención y riesgos de salud laboral, Conocimientos sectoriales, Posicionamiento Google">Siguiendo con el ejemplo donde hemos visto la descripción que nos muestran los buscadores en susresultados, comprobaremos que efectivamente en el código fuente de la página se ve el mismocontenido. Podremos ver tambien, las Meta Keywords y las Meta decriptions:1. Abra el navegador Firefox y teclee la Url www.pelotazo.com y presione Intro.2. Una vez en la página Web, vaya a la barra del navegador pestaña Ver, y haga clic en Códigofuente de la página.Abrimos la página, visualizando el código completo, fijémonos en el código de la cabecera.
  42. 42. El DOCTYPE: es la explicación de que tipo de código HTML / XHTML vas a encontrar en el sitio. Con esto ayudas al navegador a que muestre el sitio de una forma correcta. Es un elemento obligatorio en los sitios Web. Además puede llegar a indicar si un sitio está pensado para verse en un tipo de plataforma u otro (como por ejemplo el especificar el formato XHTML para móviles). STYLESHEET: indica la dirección URL del CSS (Hojas de Estilo). Este parámetro es opcional, aunque se recomienda hacer uso de CSS. LINK ALTERNATE: indica la dirección XML del feed (sindicación de contenidos). Este parámetro es opcional, aunque si la página dispone de noticias o información actualizada se recomienda hacer uso del mismo ya que ayudará a los buscadores específicos de blogs.En principio todos estos son suficientes para que la cabecera del sitio sea lo más estándar para losrobots de búsqueda, navegadores y usuarios.Gran parte de estos elementos son los que aparecen en los resultados de búsqueda (título,descripción…) y que hay que tenerlos muy estudiados ya que son los que los usuarios encuentran.C. Información del cuerpo de la páginaLa otra parte del documento queda encuadrada en lo que se denomina el cuerpo de la página Web,(todo lo que está entre <BODY> y </BODY>. Dentro de esta estructura aparecerán todos loselementos visibles por el usuario fotos, texto, animaciones... Área del cuerpo o contenidoLa disposición de los elementos HTML y el contenido dentro de la página es relevante para losrobots. Un texto ubicado al principio del código fuente HTML es más relevante que un texto queaparece el pie del mismo. Es importante aclarar, que, cuando hablamos de código HTML no estamos
  43. 43. hablando de algo perceptible para nuestros usuarios, como hemos visto anteriormente.Esta disposición es muy importante para la correcta indexación de nuestros contenidos, este códigode alguna manera también ha de ir limpio y con la disposición correcta de los elementos que acontinuación explicaremos como (hojas de estilo CSS, H1, negritas….).El texto del documento, que como hemos dicho va incluido en el "body", puede jerarquizarse(aunque la mayoría de diseñadores lo consideren "anticuado", los robots no). La manera óptima deespecificar dicha jerarquía es mediante las etiquetas <H1>, <H2>, <H3>, <H4>, <H5> y <H6>. Alconjunto de texto incluido dentro de estas etiquetas les llamaremos "Área de Cabeceras" (del inglés"header").Como hemos comentado, el contenido de los titles, metas y el resto de etiquetas que hemosnombrado y que veremos a continuación han de aparecer destacas en el código fuente de la páginaasí, como en los diferentes puntos de la web.En este caso, el title de la página es el nombre en concreto del perro: Airedale Terrier – Perros. Eltitle que además corresponde con el H1 de la página, le indica al robot que esta es el elemento másimportante de la página y que el contenido que va a encontrar en ella se refiere a eso.
  44. 44. A partir de aquí encontramos numerosas palabras en negrita, correspondientes al nombre del perro.Con esto de indicamos al crawler la relevancia de esta palabra en concreto.Encontramos otras etiquetas como el H2 que un contenido no tan relevante como : ellos lo son,remarcado también en la imagen.Algunas especificaciones a tener en cuenta: Empieza y termina la página (tal como la lee el boot) con un texto que describa en 5 palabras tu Web. La primera de ellas tiene que ser tu palabra clave. No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de la primera de ellas en orden de lectura en el código tu palabra clave. Usar etiquetas <H1>. Algunos buscadores como Google no sólo miden el área de cabecera sino que distingue entre sus distintas jerarquías. Incluye también el término de búsqueda como primera palabra del primer texto hiperenlazado de tu página. Otros buscadores, como Google, consideran el área de negritas y los tamaños de letra. Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que el resto ayuda. Utiliza ampliamente la palabra clave en el texto "normal de tu página" sobre todo en su tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de tabla). La proporción entre código y texto cuenta. Aunque se discute si directamente o por el efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu página. Google también puntúa las URLs. Ayuda tener un dominio que incluyan tu palabra clave; recuerda que no separa las palabras, por ejemplo el dominio www.saludytecnologia.com no aporta nada al posicionamiento con la palabra "salud" aunque www.salud-ytecnologia.com si. Sin embargo, los subdominios o directorios en la palabra clave también ayudan como sería www.saludytecnologia.com/salud). Texto alternativoEs el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta <IMG SRC>. Es una delas áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares deusabilidad.
  45. 45. <img title="Armario del siglo XIX con un estilo contemporáneo"src=”http://misitio.ext/imagen/armario-XIX-contenporaneo.gif”alt=”armario siglo XIX contemporáneo” />http://www.marketingconsulting.es/ Texto hiper enlazadoEs el conjunto de texto de la página que aparece entre etiquetas <a href="URL"> y </a> Área de comentariosAún existen un par de buscadores que analizan el código de los comentarios que, de modo invisiblepara los usuarios, los programadores colocan para otros programadores dentro del código.La etiqueta de comentarios sigue el siguiente formato: <!-- Texto del comentario --> Etiquetado<p> - usada para distinguir lo diferentes párrafos. Acostumbra a usarse para definir o explicarconceptos importantes. Se trata de una etiqueta usada en webs muy concretas (por ejemplodiccionarios online o glosarios profesionales) ya que causa espacios en blanco en algunosnavegadores, especialmente FireFox.<strong> - destaca una palabra clave al poner el texto en negrita. Hay la variante <b>, pero que noes aconsejada por el W3C. Otras etiquetas<abbr> - indica que el texto es una abreviatura (WWW, HTTP, URI…).<acronym> - indica que el texto es un acrónimo (WAC…).
  46. 46. <address> - indica una dirección postal. <big> - marca que el texto ha de tener un tamaño mayor. <blockquote> - se utiliza de forma muy similar al <cite>. <cite> - contiene una cita o referencia de otro texto. <code> - indica que el texto es un fragmento de código informático. <del> - marca que el texto ya no tiene valor. Suele acompañar a <ins>. <dfn> - marca la definición de una palabra o frase. <em> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <i>. <i> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <em>. <ins> - marca que el texto es nuevo con respecto al original. Suele acompañar a <del>. <kbd> - indica texto que el usuario debe introducir en su ordenador. <pre> - para mostrar texto sin formato. <q> - muy similar a <cite>, pero para fragmentos muy cortos (normalmente en una misma línea). <samp> - código que daría un ordenador. <small> - marca que el texto ha de tener un tamaño menor. <sub> - indica que el texto está por debajo del normal. <sup> - indica que el texto está por encima del normal. <tt> - marca que el contenido tiene formato teletipo. <var> - marca el texto como si fuera una variable. Robots, nofollows y otrosA parte de la navegación natural que un crawler puede hacer en nuestro sitio Web, disponemos de herramientaspara especificarle que queremos que indexe y que no. Robots.txtEl robots.txt es un archivo de texto plano en el que podemos especificar diferentes instrucciones a los crawlersde los buscadores:
  47. 47. Ejemplo: Para identificar a los crawlers usaremos el User-agent: *User-agent: * Disallow: /view_content.cfm (No permite el acceso a la pagina content.cfm) Disallow: /view_content.cfm?* (no permite el acceso a las paginascontent.cfm seguidas de cualquier parámetro –(view_content.cfm?param1=value1)) NowFollowEn el mismo sentido, nuestra Web contendrá enlaces por lo que si no queremos que los robots los indexen habráque aplicar un NowFollow a un enlace, basta con añadir al código del mismo una relación “now follow”(rel=nofollow).Para destacar los enlaces con nowfollow existe una aplicación de firefox que podréis encontrar en el siguienteenlace: http://www.quirk.biz/searchstatus/A continuación mostramos los enlaces que no indexan:
  48. 48. Mapa del sitio El mapa del sitio es una lista de vínculos a las diferentes páginas de la propia Web. De esta manera, la página ayuda a los buscadores para que encuentren dónde está situado cada contenido. Para facilitar el trabajo a los robots: Archivo “sitemap”: es un archivo XML con una estructura específica que facilita a los crawlers información sobre el contenido que tenemos y con que periodicidad se actualiza. Así, se generará el archivo XML llamado sitemap.xml y se insertará en el directorio raíz. Ejemplo: www.apple.com/es/sitemapURL amigablePodríamos hacer una clasificación simple de dos tipos de direcciones Web: las que llevan“identificadores” y las que no. Llamemos URL amigable a aquella que se estructura medianteidentificadores en el texto que nos permiten saber de que se trata la Web.Vea que URL es amigable y cuál no:Linking internoEntendemos por Linking interno el conjunto de enlaces que apuntamos a nuestro site, desde elmismo. Anteriormente, hemos visto que es importante ofrecer a los robots enlaces con los que accedera toda la información que queremos indexar, para ello es imprescindible estructurar un sistema deLinking interno que facilite la navegación a través de nuestro sitio.Una buena estrategia de Linking interno generará flujo natural del crawler a través de nuestro sitio ypotenciará la indexación.Las claves para generar un buen Linking interno son: Enlazar con buenos anchor text* (optimizados y coherentes con las Keywords de nuestro sector así como, con el contenido que mostramos). Hacer un buen uso de los Now follow, para priorizar unos enlaces frente a otros. Crear enlaces con rutas absolutas.
  49. 49. Intentar contextualizar enlaces: crear enlaces en medio de un texto.En la imagen que se puede ver a continuación, vemos los links internos remarcados. Como se puedeapreciar muchos de estos links están contextualizados con Keywords. Esto fomenta por un lado, ladensidad de palabras clave y por otro la navegación tanto del usuario como del crawler.En este articulo de la Wikipedia podemos ver varios anchor contextualizados, por ejemplo, HarryPotter.
  50. 50. * Un anchor text es el texto o palabra con la que hacemos un link. Programación en CSS Las tablas existen desde el comienzo en HTML, pero no se crearon para diseñar un sitio, sino para la presentación de datos tabulares. La utilización de “border=0” y las imágenes transparentes hicieron posible crear una rejilla que permitió a los diseñadores organizar textos e imágenes, establecer tamaños y ubicar objetos. Pero esto es sencillamente incorrecto. Las tablas no se crearon para maquetar y no deben utilizarse para eso, porque de esta forma se mezclan presentación y contenido, y lo que es importante, este es el factor principal por el cual los robots de buscadores no leen bien las webs con tablas. La solución es clara: CSS+HTML. Algunas de las ventajas de la maquetación con CSS: Separación de forma y contenido. Generalmente CSS y HTML se encuentran en archivos separados, lo que facilita el trabajo en equipo porque diseñador y programador pueden trabajar independientemente. Por otro lado, permite el acceso a distintos navegadores y dispositivos. Tráfico en el servidor. Las páginas pueden reducir su tamaño entre un 40% y un 60%, y los navegadores guardan la hoja de estilos en la caché, esto reduce los costos de envío de información. Tiempos de carga. Por la gran reducción en el peso de las páginas, mejora la experiencia del usuario, que valora de un sitio el menor tiempo en la descarga. Precisión. La utilización de CSS permite un control mucho mayor sobre el diseño, especificando exactamente la ubicación y tamaño de los elementos en la página. También se pueden emplear medidas relativas o variables para que la pantalla o la caja contenedora se acomode a su contenido. Mantenimiento. Reduce notablemente el tiempo de mantenimiento cuando es necesario introducir un cambio porque se modifica un solo archivo, el de la presentación, sin tener que tocar las páginas que contienen la estructura con el contenido. Diseño unificado y flexibilidad. Es posible cambiar completa o parcialmente el aspecto de un sitio con sólo modificar la hoja de estilos. Por otro lado, el tener el estilo de una Web en un solo archivo permite mantener la misma apariencia en todas las páginas. Posicionamiento. Las páginas diseñadas con CSS tienen un código más limpio porque no llevan diseño, sólo contenido. Esto es semánticamente más correcto y la página aparecerá mejor posicionada en los buscadores. Google navega obviando el diseño.Práctica: Análisis de una Web según criterios de SEO Práctica: Análisis de una Web según criterios de SEO
  51. 51. Analizarremos si la Web mundo animalia esta optimizada para SEO según los siguientescriterios:¿Dispone de todos los elementos en el header?Abra el navegador e introducir en el campo de la URL: www.mundoanimalia.comUna vez abierta la página en el navegador, vaya a la pestaña Ver > Código fuente de lapágina.A continuación se abrirá en otra ventana el código fuente de la página. Enmarque lossiguientes ítems: META NAME- META DESCRIPTIONComprobará que no dispone de todos los elementos en el header, falta Title. Pero eso,siempre dependerá de cada página.Haga el mismo proceso, con algunas páginas que visite a menudo y vea, que entre ellasexisten muchas direncias en el código.
  52. 52. 1.- ¿Influye el tiempo de carga de nuestra Web en el posicionamiento? No. Sí, la optimización de nuestra Web para un buscador viene determinada por factores como eltiempo de carga del sitio. Si, porque mejora la experiencia del usuario. 2.- ¿Qué es una URL amigable? La Web recomendada por un amigo. Es aquella que se estructura mediante identificadores en el texto que nos permiten saber de que se trata la Web. Las Web que ponemos en nuestros Favoritos. 3.- ¿Cuáles son los elementos más importantes para un robot? La estructura del cuerpo, área de la cabecera, los textos alternativos, las negritas, los H1, h2,…. La cabecera donde se describen las características del documento. Ambas respuestas son correctas. 4.- ¿Qué es un crawler, spider o robot? Ambas respuestas son correctas. Ninguno de estos conceptos tiene el mismo significado. Un Crawler, spider o robot son los nombres comunes para llamar los analizadores de Web que usan los buscadores para analizar Web. 5.- ¿Tiene nuestra Web que estar programada en CSS? Sí, es importante que nuestra Web se programe mediante tablas y javascript. Sí, el recomendable programar mediante CSS, ya que nos permitirá separar la forma del contenido, disminuir los tiempos de carga de la web, reducir los costes de mantenimiento y mejorar el posicionamiento. No, dependerá del programador.
  53. 53. 1.- ¿Influye el tiempo de carga de nuestra Web en elposicionamiento? No. Sí, la optimización de nuestra Web para un buscador viene determinada por factores como el tiempo de carga del sitio. Si, porque mejora la experiencia del usuario. 2.- ¿Qué es una URL amigable? La Web recomendada por un amigo. Es aquella que se estructura mediante identificadores en el texto que nos permiten saber de que se trata la Web. Las Web que ponemos en nuestros Favoritos. 3.- ¿Cuáles son los elementos más importantes para un robot? La estructura del cuerpo, área de la cabecera, los textos alternativos, las negritas, los H1, h2,…. La cabecera donde se describen las características del documento. Ambas respuestas son correctas. 4.- ¿Qué es un crawler, spider o robot? Ambas respuestas son correctas. Ninguno de estos conceptos tiene el mismo significado. Un Crawler, spider o robot son los nombres comunes para llamar los analizadores de Web que usan los buscadores para analizar Web. 5.- ¿Tiene nuestra Web que estar programada en CSS? Sí, es importante que nuestra Web se programe mediante tablas y javascript. Sí, el recomendable programar mediante CSS, ya que nos permitirá separar la forma del contenido, disminuir los tiempos de carga de la web, reducir los costes de mantenimiento y mejorar el posicionamiento. No, dependerá del programador.
  54. 54. Los contenidos de su Web Los contenidos de una Web se deben preparar dándole forma según el código HTML y destacando, en todo caso las Keywords de forma correcta. Contenidos Elementos externos - link building Elementos no reconocidos en el contenido Lo que no hay que hacer El efecto Sandbox Optimización para varios buscadores Práctica: Posicionamiento de un texto en la WebContenidosLa clave para una buena indexación son los contenidos: contenidos de calidad y optimizadospara las Keywords que queramos posicionar y que sean relevantes en nuestro sector.Los contenidos de una Web se deben preparar dándole forma según el código HTML ydestacando, en todo caso las Keywords de forma correcta. Es bueno, que en toda nuestraWeb repitamos de forma constante las Keywords de interés, sin caer en lo absurdo. Es muyimportante que la repetición de estas palabras se vea como algo natural y no como algoforzado o preparado para los robots, ya que de ser así, podemos ser penalizados porsobrecargar la página.Si realizamos contenido de calidad o interés fácilmente recibiremos enlaces de otras webs,que nos ayudaran a mejorar el posicionamiento.*La densidad de palabra para la Keywords Nero 9 en el texto extrado de Softonic es elevada,sin llegar a ser forzada.
  55. 55. En el caso de los textos suplementarios en la Web, serian igualmente óptimos si no llevarasesas palabras clave, aun así, reforzaremos la densidad si los incluimos.Vemos también en la misma página que existen etiquetas optimizadas en otros apartados delsite:
  56. 56. Contenidos especiales: imágenesCada vez más, las imágenes son una fuente importante de tráfico para las Web. Paraposicionar correctamente nuestras imágenes es necesario facilitar su lectura y comprensión ointerpretación por parte de los crawlers, por lo que deberemos: Incluir los textos alternativos en las imágenes, que describan la imagen sin sobrecargarlo de palabras clave de forma innecesaria (atributo “Alt”). Usar las palabras clave en el texto que colinda en el HTML con la imagen. Usar la Keywords en el nombre de la imagen, o en la ruta hacia la misma.Igual que en el contenido del texto, es importante usar imágenes de calidad que harán que sevea más claro para el crawler en su listado de imágenes. Las imágenes deberían ser propiaspara evitar la duplicidad de contenido, y si usamos imágenes de otros sitios es importantealterarlas con marcas de agua, redimensionándolas o recortándolas para evitar que seconsideran duplicadas. Es bueno enlazar las imágenes pequeñas, con imágenes mayores y demejor resolución.
  57. 57. Elementos externos - link buildingEl link building es la estrategia previamente planificada para conseguir enlaces que nos permitanposicionar nuestras páginas en los buscadores. Por lo tanto, se trata de conseguir cuantos másenlaces mejor y de la mayor calidad posible. Los enlaces no son el fin, son el medio para aparecer enlo alto de los buscadores.El link building es el mecanismo de conseguir enlaces de forma artificial pero simulando que lohemos hecho de forma natural.Una vez que tenemos preparado nuestro sitio perfectamente optimizado hay que empezar con eltrabajo de conseguir enlaces. El link Building es útil para absolutamente cualquier Web de Internetque pretenda recibir tráfico de los buscadores, aunque es especialmente necesario para webscomerciales que venden productos y que difícilmente recibirán enlaces. Éste es uno de los motivosdel éxito de los blogs: los blogs, como veremos más adelante, son un herramienta excepcional paragenerar enlaces.Claves para conseguir enlaces: 1. Qué y cuántos enlaces necesito - hay que tener claro qué términos queremos posicionar, qué tipo de enlaces necesitamos, cuántos enlaces y en cuánto tiempo. En el caso de la mayoría de webs la respuesta es sencilla: cuantos más mejor, siempre que sean naturales. 2. Cómo conseguir enlaces - una vez que sabemos lo que queremos, hay que plantear las estrategias. Estudiaremos los tipos de técnicas y mecanismos para conseguir enlaces. 3. Tiempo - un buen enlace apunte a nuestra Web, con las palabras adecuadas y a donde queremos, no significa que automáticamente nuestro contenido suba. Es un proceso largo. Los enlaces son más importantes por su antigüedad que por su PageRank. Las actualizaciones de Google suelen ser cada tres meses. Si el sitio es nuevo, hay que mantenerse acumulando buenos enlaces durante meses para ver resultados.No se preocupe si va consiguiendo enlaces pero no ve resultados. Llega un punto en que de repente,tu duro trabajo durante meses da resultado, Google empieza a mandarte miles de visitas. Imagínatela alegría. Pero para eso hay que trabajar duro y bien.Páginas que poseen listado de directorios atractivos para construir popularidad Web:

×