Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Seo Avanzado para Ecommerce. Arquitectura de información, crawleo y migraciones en un ecommerce

160 views

Published on

SEO para ecommerce. Cómo optimizar tu ecommerce en crawling, arquitectura de información y principales problemas de un ecommerce en migraciones y rediseños web. Aprende a optimizar tu ecommerce con esta presentación de seo avanzado de Daniel Pinillos y Natzir Turrado.

Published in: Marketing
  • Login to see the comments

  • Be the first to like this

Seo Avanzado para Ecommerce. Arquitectura de información, crawleo y migraciones en un ecommerce

  1. 1. @natzir9 / @seovision / #CW15 SEO PARA E-COMMERCE 3 puntos imprescindibles
  2. 2. FunnelPunk
  3. 3. Natzir Turrado Daniel Pinillos Lino Uruñuela SEO/CRO/W A SEO/UX/CR O SEO/WA/IT Equipo
  4. 4. @natzir9 / @seovision / #CW15 Mediamarkt: + 800% en 3 años Empezamos a trabajar Esto es lo que hacemos
  5. 5. @natzir9 / @seovision / #CW15 Rusticae: + 90% organic + 80% revenue Empezamos a trabajar Esto es lo que hacemos
  6. 6. @natzir9 / @seovision / #CW15 Solostocks: Salida de penalización Esto es lo que hacemos
  7. 7. @natzir9 / @seovision / #CW15 Sport: +72% organic (5 meses) Empezamos a trabajar Esto es lo que hacemos
  8. 8. @natzir9 / @seovision / #CW15 Índice 1 . Crawling 2. Arquitectura de la Información 3. Migraciones y rediseños
  9. 9. 1. Crawling
  10. 10. @natzir9 / @seovision / #CW15 CRAWLING 1 INDEXING 2 RANKING 3 1. Crawling
  11. 11. @natzir9 / @seovision / #CW15 1.2. Entendiendo el crawling • Los BOTS recorren internet (web visible por links). No ven la deepweb aunque lo intenten. • Lo hacen con sus bots, con browsers, con barras, etc. • Guardan las URLs que encuentras en Servidores de URLs. • Los sitios tienen asignado un crawl rate o crawl budget. Está determinado por la autoridad, facilidad de crawleo y calidad de la página.
  12. 12. @natzir9 / @seovision / #CW15 1. Crawling1.2. Entendiendo el crawling • Las páginas que se crawlean menos reciben menos tráfico y al revés, las páginas que se crawlean más reciben más tráfico. • Pues ganar a una página con más autoridad teniendo más crawl rate.
  13. 13. @natzir9 / @seovision / #CW15 • Google usa varios crawlers y user-agents: - Googlebot (desktop y mobile) - Googlebot-mobile (featured phones) - Ver otros • Para organizar qué partes queremos que google rastree, tenemos que tener en cuenta qué quiere ver el usuario y qué queremos enseñar al crawler. - Por ejemplo las ordenaciones de productos las dejaremos para el usuario pero no para el crawler. 1.2. Entendiendo el crawling
  14. 14. @natzir9 / @seovision / #CW15 • Respuestas del servidor para no molestar al bot: - 200 -> es la respuesta que siempre hay que dar - 3xx -> recomendable 301 (sigue 5 y luego da 404) - 4xx -> no le gusta. Podemos eliminar con 410 - 5xx -> no le gusta. Devolver 503 en caso de mantenimiento o por defecto hasta solucionar los errores. - 750 -> Ej. Errores de parada de Varnish 1.2. Entendiendo el crawling
  15. 15. @natzir9 / @seovision / #CW15 1.2. Entendiendo el crawling
  16. 16. @natzir9 / @seovision / #CW15 • El acceso del crawler lo podemos capar de varias formas: - Capando IP o con un site cerrado por password - Para intranets: entornos de staging, pre, dev. - Capado por robots.txt de host:puerto - Capado por meta robots (noindex, follow) - Capado por meta en cabecera HTTP - Enlaces bloqueados (js + robots.txt) BOT CONTROL 1.3. Optimización del crawling
  17. 17. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • URLs que le gustan al bot: - Efectivas: buena UX en página, con tráfico y no repetidas.
  18. 18. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Evita la “canonicalitis” y la “noindex, followitis”. Lo de la “noindex, nofollowitis” ya es de juzgado de guardia… • Una URL por intención de búsqueda, el resto capadas a menos que exista mucho volumen de búsquedas. Cuidado con: - tallas, colores, material, estado… - combinaciones de filtros permitidas. • Links que quieras que se rastreen siempre accesibles. Mira las páginas en modo texto en caché (o navega con Lynx) y no hagas caso del fetch & render
  19. 19. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling PROBLE M?
  20. 20. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling
  21. 21. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Gestión de stocks: ¿Vas a volverlo a tener? - SI · 200 y muestra similares (crosslinking) - NO: ¿Tienes productos similares? · SI + 200 y crosselling/upselling. Compruébalas cada 3/6 meses + 301 solo a similares y nunca a home = soft 404 · NO + 410 Mejor solución en mala UX pero ojo con el crawl rate
  22. 22. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Paginados: ¿Pues cargar todos en una página en menos de 2-3s? - SI · View All: Paginados canonical + enlace a la view all - NO: ¿Pierden mucho tiempo los bots? · SI + Robots.txt (todas o a partir de cierto número) · NO + Rel= Next, Prev (no uses canonical ni noindex, follow)
  23. 23. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Control de parámetros (querystrings, sessions): - Ordenaciones, campañas, búsquedas y otras funcionalidades. • AI: - 3 niveles (distancia desde la home =! número de directorios) - Potencia las zonas que interesen por negocio (link sculpting) - Apóyate en sitemaps HTML (ayudan a acortar distancias) • Y siempre, siempre, siempre analiza los logs dejados
  24. 24. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling
  25. 25. @natzir9 / @seovision / #CW15 BOT CONTROL 1.3. Optimización del crawling
  26. 26. @natzir9 / @seovision / #CW15 • Hay que saber diferenciar entre los tiempos de descarga de una página para el bot y para el usuario. Por ejemplo, una página puede tardar en descargarse 200ms para el bot y 20s al usuario. • El impacto directo en SEO es lo que tarda una página en ser leída por el bot porque afecta al crawling (TTFB + descarga). Intentad tener TTFB de 200ms (en SSL difícil). Impacto indirecto en SEO, mala perfomance = pogo-sticking del user contra la SERP. • Google es más restrictivo en mobile que en desktop y podría incluir el TTI en sus factores de ranking mobile.1.4. El performance y el crawling
  27. 27. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  28. 28. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  29. 29. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  30. 30. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  31. 31. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling • Devolviendo tiempos de respuesta rápidos en el HTML - imágenes e iconos (css sprites, escalado, compresión y cacheado) - unificar minimizar y cachear js y css • Paralelizar peticiones • Resolución de DNS rápida (prefetching, minimización de peticiones, CNAME…) • Cacheo mediante proxys • Generación de HTMLs estáticos (render del html si es js) • ETAGS para dinámicos • Expiración en cabeceras • …
  32. 32. @natzir9 / @seovision / #CW15 • Es importante entender como trata Google los links: - Accesibles - No repetir el mismo <a href> en la página (a menos que te interese pasar más peso) - Según la situación del link en el layout. Over the fold, entre contenido, link en imágenes. - No usar un número excesivo de links por páginas (300) - Anchoring variado1.5. Crawl/Link Sculpting
  33. 33. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  34. 34. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  35. 35. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  36. 36. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  37. 37. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  38. 38. @natzir9 / @seovision / #CW15 • Crosselling y Upselling - Son similares a crosslinks pero orientados a convertir. - Elegiremos otras búsquedas hermanas. - Estudiaremos cómo pasar mas linkjuice ( Autoridad) - Links accesibles. - Que estén próximos a los resultados o al producto. - En producto podemos pintar unos a productos hermanos por características. - Pintaremos un upselling para poder vender un segmento más alto o producto más completo.1.5. Crawl/Link Sculpting
  39. 39. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  40. 40. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  41. 41. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  42. 42. @natzir9 / @seovision / #CW15 • El robots desaparece o se modifica: - Utiliza la tool Roboto, cachea el Robots.txt, si falla un 503 • Se crean facetas sin avisar al SEO: - Monitoriza con logs nuevas secciones descubiertas. • % elevado de URLs con errores (4XX, 5XX, 7XX ) o excesivas 3XX. • Enlaces no accesibles • Canonical + noindex : te puede pasar el noindex a la canonical • Exceso de URLs baja calidad. Ej: siguiente diapo.1.6. Problemas comunes de crawleo
  43. 43. @natzir9 / @seovision / #CW15 1.6. Problemas comunes
  44. 44. 2. Arquitectura de la Información
  45. 45. @natzir9 / @seovision / #CW15 2. Arquitectura de la Información Estructurar información haciendo que los usuarios la encuentren intuitivamente y dar a los bots lo que queremos indexar. Daniel Pinillos Carrasco – UX + SEO Diseño estructural del espacio informacional para facilitar el acceso intuitivo a los contenidos. Jesse James Garret - UX
  46. 46. @natzir9 / @seovision / #CW15 • Sistemas de organización: estructuran según clasificación, ej: tipo de usuario, fechas… • Sistemas de navegación: permiten movernos de forma cómoda por el sitio. Jerarquica, facetada • Sistemas de etiquetado: categorizan la información en el lenguaje de los usuarios. • Sistemas de búsqueda: recuperan la información.2.1. Componentes de la AI
  47. 47. @natzir9 / @seovision / #CW15 • Navegación jerárquica: - Accesible - Consistente - Indexable - Arriba en el layout 2.2. Optimización SEO de la AI
  48. 48. @natzir9 / @seovision / #CW15 • Navegación facetada: - Accesible - Usable - Informativa (filtro seleccionado) - Indexable o no según reglas 2.2. Optimización SEO de la AI
  49. 49. @natzir9 / @seovision / #CW15 • Migas interactivas: - Que contengan toda la ruta real - Markup de breadcrumb - Links accesibles o no según interese (para que el bot avance verticalmente) 2.2. Optimización SEO de la AI
  50. 50. @natzir9 / @seovision / #CW15 • Naming y anchoring: - Debemos poner los nombres correctos a los links de navegación. - Primero UX luego SEO. - Ojo con: · Sobreoptimizar anchorings de enlaces. · Alts de imágenes que cuentan como anchor. · Repetir dos links en misma URL. 2.2. Optimización SEO de la AI
  51. 51. @natzir9 / @seovision / #CW15 • Titles de etiquetado: - Únicos para evitar canibalizaciones - 60 caracteres aprox (ahora píxels) - Automáticos y luego manuales - Optimizados para el click o Call to action - Uso de verbos que ayuden a persuadir - Ejemplo de regla: · comprar [BMW] [serie 3] [diesel] de [segunda mano] en [Madrid] · micoche.com/segunda-mano/provincia/bmw/serie-3/f/diesel 2.2. Optimización SEO de la AI
  52. 52. @natzir9 / @seovision / #CW15 • Descriptions de etiquetado - Únicas y 155 caracteres aprox (tool) - Automáticos y luego manuales en las que interesen - Que no se canibalicen - Con info concreta del listado o producto - Persuasivas. Uso de verbos y orientado al click - Poner propuesta de valor del producto (entrega 24h, devolución gratis…) 2.2. Optimización SEO de la AI
  53. 53. @natzir9 / @seovision / #CW15 • Sistema de búsqueda - Buscador que pueda indexar lo que queramos - Suggest en la búsqueda · URL: /s/keyword-de-búsqueda (capara por robots disallow: /s/ y meta noindex ‘porsiaca’) - Podemos indexar búsquedas repetidas si enriquecemos (no es lo más recomendablea ahora) - User & Keyword Research para sacar topics de los que hablar2.2. Optimización SEO de la AI
  54. 54. @natzir9 / @seovision / #CW15 • Analizar a tus usuarios: - encuestas, testing, investigación contextual, estudios de mercado, focus groups…. sal a la calle! • Modelado de personajes y definición de metas y tareas de usuario: - Comprar un producto, lead, permanencia, contacto. • User & Keyword research. - Analiza intenciones de búsqueda - Analiza keywords por conversión y volumen - Busca la oportunidad (kw difficulty con Moz, Semrush,2.3. User Research
  55. 55. @natzir9 / @seovision / #CW15 2.3. User Research
  56. 56. @natzir9 / @seovision / #CW15 2.3. User Research
  57. 57. @natzir9 / @seovision / #CW15 2.3. User Research • En tu Excel de keywords añade: - Intención de búsqueda - Prioridad (cerca de la conversión) - Tipo de búsqueda: · Informativa · Navegacional · Transaccional · Multimedia • Completa tu personaje con esta info. • ¡Ahora ya tienes la foto real de tu usuario! +
  58. 58. @natzir9 / @seovision / #CW15 2.4. AI en el ciclo de compra URLs Contenidos informativos > URLs Contenidos transaccionales > URLs Contenidos experienciales >
  59. 59. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e INVESTIGACIÓN LIMPIEZA Y CLUSTERIZADO VOLUMEN, COMPETENCIA Y TENDENCIAS
  60. 60. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e
  61. 61. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e
  62. 62. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • Crea un mapa mental (pe: Xmind) teniendo en cuenta: - Árbol de tu web actual (si tienes) - Lo que conozcas del producto - Lo tienen tus competidores - Patrones de búsqueda
  63. 63. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs indexables: - /segunda-mano - /segunda-mano/provincia - /segunda-mano/provincia/berlina - /segunda-mano/provincia/bmw - /segunda-mano/provincia/bmw/serie-3/
  64. 64. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-/f/diesel/e/barato (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-3/p-2/ (indexar solo las 5 primeras páginas)
  65. 65. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs NO indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel,5-puertas (disallow: *,* o bloqueo del enlace con ajax/js capado) - /segunda-mano/provincia/bmw/serie-3/p-6/ (disallow: */p-* , meta noindex, follow según consumo del bot) /segunda-mano/provincia/bmw/serie-3/f/diesel/o/mas-barato (disallow: */o/* o bloqueo del enlace con ajax/js capado)
  66. 66. @natzir9 / @seovision / #CW15 2.7. Optimización y Testing de AI CARD SORT CERRADO TREE TESTCARD SORT ABIERTO • El usuario agrupa libremente • Para descubrir una AI útil para el user • El usuario agrupa en grupos cerrados • Para verificar una AI • El usuario busca en una AI sin diseño elementos que le preguntan • Para mejorar la findability de una AI
  67. 67. @natzir9 / @seovision / #CW15 2.7. Optimización y Testing de AI
  68. 68. @natzir9 / @seovision / #CW15 2. Arquitectura de la Información • Mejora del negocio • Mejora en SEO
  69. 69. 3. Migraciones y rediseños
  70. 70. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  71. 71. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños Web con todas las facetas abiertas
  72. 72. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  73. 73. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  74. 74. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  75. 75. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  76. 76. @natzir9 / @seovision / #CW15 3.1. Checklist de migración • Hemos preparado este checklist para que no se te pase nada. • Algunos pasos importantes son: - Inventario de URLs viejas - Inventario de URLs nuevas - Macheo de redirecciones - Configuración de sistemas - Canonical y luego redirección - Validación y seguimiento - Emulación y crawleo
  77. 77. @natzir9 / @seovision / #CW15 3.2. Seguimiento de migraciones • Crawlea el sitio antes y después para comparar los crawls. Deepcrawl, Sistrix o Semrush (para sitios peques). • Preferiblemente crawlea el antes de migrar en un entorno de desarrollo. Puedes hacerlo con Xenu, Deepcrawl, Screamingfrog… • Verifica que las redirecciones son directas. Coge una muestra de URLs y verifícalo fácilmente con RedirectPath para Chrome. • Cuando salgas mira las páginas en las que se está accediendo con el RealTime de Analytics y con logs.
  78. 78. @natzir9 / @seovision / #CW15 3.2. Seguimiento de migraciones • Trakea posiciones y visibilidad (Sistrix o Semrush). • Acuérdate de indicar el cambio de dominio/subdominio si hay en SearchConsole. • El Sitemap.xml súbelo al tiempo y separado por secciones para ver la indexación de cada una. Ojo con urls erroneas o viejas! • Páginas que se hayan indexado por error elimínalas en bulk desde Search Console o crea un Sitemap-error.xml y que las URLs devuelvan 410 para que desaparezcan.
  79. 79. @natzir9 / @seovision / #CW15 3.3. Problemas comunes • Mala configuración de sistemas. Errores 503, 750 en Varnish, 404. • No mantener ni actualizar el nuevo robots.txt. • Abrir a buscadores entorno de staging. • Reglas de redirección mal hechas, redirecciones no directas y no 301. • Sitemaps.xml contra URLs que no son las finales o no son accesibles (4XX, 5XX, noindex). Gbot acabará ignorando los sitemaps. • Enlaces onsite no actualizados a nuevas urls.
  80. 80. Better call FunnelPunk info@funnelpunk.com

×