Case study z realizacji badań jakościowych i ilościowych strefy marki Microsoft (shop-in-shop) w sklepie internetowym Euro.com.pl.
Prezentacja z konferencji Cyber Research 5.0 - http://ptbrio.pl/cyber50 (4.03.2k15, Warszawa)
Pozyskiwanie klientów z systemem Marketing Automation
Similar to Microsoft Case Study - badania ilościowe i jakościowe narzędzia Shop-in-Shop w Euro.com.pl - Michal Cortez i Kuba Barzak - CyberRE 5.0, Warszawa
SEO, pozycjonowanie celem przyciągnięcia klienta – jak robić to skutecznie?Mateusz Rzetecki
Similar to Microsoft Case Study - badania ilościowe i jakościowe narzędzia Shop-in-Shop w Euro.com.pl - Michal Cortez i Kuba Barzak - CyberRE 5.0, Warszawa (20)
SEO, pozycjonowanie celem przyciągnięcia klienta – jak robić to skutecznie?
Microsoft Case Study - badania ilościowe i jakościowe narzędzia Shop-in-Shop w Euro.com.pl - Michal Cortez i Kuba Barzak - CyberRE 5.0, Warszawa
1. Przejmij kontrolę w sklepie internetowym,
czyli optymalizacja komunikacji marki w
eCommerce
Michał Cortez
iKomersiak
Saatchi & Saatchi Interactive Solutions
Kuba Barzak
Digital Channel Marketing Lead CEE
Microsoft HQ
2. Agenda
1. Komunikacja marek w eCommerce
2. Punkt wyjścia: widoczność Microsoft w eCommerce
3. Analityka w komunikacji w marek
4. Badanie: metodologia i narzędzia
5. Podsumowanie i kolejne kroki
6. Bonus: learningi z procesu optymalizacji
3. Komunikacja marek w eCommerce
Gdzie w digitalu marka bez własnego e-sklepu może zaznaczyć swoją obecność?
ZEWNĘTRZNA
touch pointy na
drodze do sklepu
internetowego
WEWNĘTRZNA
ścieżka użytownika
po sklepie
internetowym
path to
purchase
POST BUY
eRETAILER
EMAILING
RETARGETING
eRETAILER
HOME PAGE FROM SEARCH
SPECIAL LISTINGS: BESTSELLERS, PROMO,
ETC
FROM NAVIGATION
CLOSING THE
BASKET
REPLACEMENT
COMPLEMENTARY
IMPULSE
LISTINGS
PRODUCT
CARD
4. Punkt wyjścia: widoczność Microsoft w eCommerce
Środowisko w którym pracujemy w oparciu o aktywności Microsoft w kanale eCommerce:
NARZĘDZIA
Basic
eContent
Rich
eContent
Landing
pages
Shop in
Shops
KOOPERACJA
z eSklepem
Wspólne
kampanie
Optymalizacja
budżetów
Optymalizacja
SERPów
Koncepty
sprzedażoweEWALUACJA
Testy Raportowanie
5. Punkt wyjścia: widoczność Microsoft w eCommerce
Selekcja narzędzi dla dedykowanego Toolkitu dla Microsoft Polska, na których pracujemy:
Rich eContentShop-in-Shop iMediaShop-in-Shop - sublevele Landing pages
ekosystem sprzedażowy
8. Najczęstsze problemy marek w zakresie mierzenia efektywności prowadzonych działań
eCommerce:
Analityka eCommerce | marki (bez e-sklepów)
ANALIZA
EFEKTÓW
KAMPANII
Kiedy to
robić?
Do czego
porównać?
Atrybucja
konwersji?
Online
Customer
Journey?
ANALITYKA
INTERNETOWAJakie KPI?
Impresje? CTRy?
Mieszanie
metryk!
RUCH
(outbound
traffic)
Mieszania
metryk!
SELEKCJA
PARTNERÓW
B2B
BLOKADY
Z CENTRALI
Mieszania
metryk!
(…)
9. Wyzwanie: ewaluacja nowej strefy marki Microsoft
Czym jest strefa marki czyli Shop-in-shop (e-POS)?
-Połączenie komunikacji marki (za pomocą np. bannerów, animacji,
infografik, tabel) z ofertą handlową na stronie e-sklepu
-Pozwala nam wyróżnić się i opisać nasze produkty lepiej, niż to
standardowo robią e-sklepy (głównie z braku zasobów)
-Mamy pełną kontrolę nad ekspozycją brandu i otoczeniem w jakim
się znajduje („2cm obok nie będzie produktu konkurencji”)
POS e-POS
10. Q&A dot. efektywności narzędzia shop-in-shop:
Q Jaki jest główny cel istnienia tego Shop-in-Shop?
A Zwiększenie sprzedaży. Cele drugorzędne – edukacja i oferta produktowa.
Q W jaki sposób możemy badać efektywność SiSa?
A Na podstawie standardowych danych dostarczanych przez e-sklep i
raportowanych w 90% (w Polsce) przez Google Analytics: m.in. penetracja
SiSa, czas na stronie, współczynnik odrzuceń, konwersja.
Q Jaki jest minus takiego rozwiązania?
A Poruszamy się w zastanym środowisku – posiadamy gotowy SiS i na
podstawie podstawowych statystyk próbujemy sprawdzić jego
efektywność. Ale nie zawsze mamy benchmark - do czego porównać
czas na stronie? A współczynnik odrzuceń? A konwersję?
Q Co możemy zrobić, żeby to poprawić?
A Efektywność narzędzia sprawdzić już na etapie jego projektowania!
11. Test efektywności SiS: metodologia i narzędzia
Wykorzystane narzędzia:
TEST A/B
• Podstawowe narzędzie w tzw. metric-driven design, czyli opieraniu kluczowych decyzji
projektowych i biznesowych na twardych danych
• Optymalizacja zasobów marki które mogą mieć realny i mierzalny wpływ na poszczególne
metryki (np. na konwersję; sprzedaż, leady, instalacje)
Mechanika testu:
-dwie różne wersje badanej strony (A i B)
-kierowanie ruchu po równo na obydwie wersje strony
-weryfikacja kluczowych współczynników strony dla wersji A i B
-wybór wersji zwycięskiej
Kluczowe zasady testowania:
-test musi odbywać się równolegle (obydwie wersje strony testowane są równocześnie)
-na obydwie strony powinien być wygenerowany ruch podobnej wielkości
-generowany ruch powinien pochodzić z tego samego źródła (np. nie powinniśmy na wersję A
prowadzić ruchu z Facebooka, a na wersję B z Google AdWords)
12. Test efektywności SiS: metodologia i narzędzia
Wykorzystane narzędzia:
HEAT MAPY
(CrazyEgg)
• CrazyEgg – narzędzie do badania tzw. heat-map, scroll-map i click-map na stronach
internetowych
HEAT MAPA CONFETTI SCROLL MAPA CLICK MAPA
Dostarcza informacji gdzie
użytkownicy klikali na
stronie.
Dostarcza informacji o
kliknięciach na
poszczególne elementy
strony zależnie od źródła
odwiedzin użytkownika
(np. z Facebooka)
Odpowiada na pytanie czy
użytkownicy scrollują i
zapoznają się z całą stroną,
czy oglądają np. tylko
część nad foldem
Pokazują dokładną ilość
klików w poszczególne
linki na stronie
13. Test efektywności SiS: pytania
Szukamy odpowiedzi na pytania:
Q Która wersja SiS ma lepszą konwersję (więcej sprzedaje)?
Q Która wersja SiS ma lepsze kluczowe współczynniki (m.in. penetracja, czas na stronie, współczynnik odrzuceń)
Q Która wersja generuje więcej przejść na strony produktów i listingi produktowe?
Q Który bloczek z bestsellerami lepiej funkcjonuje (na górze czy na dole strony)?
Q Czy dane z badania map strony pomogą w usprawnieniu SiSa?
14. Test efektywności SiS: start
Różnice w wariantach SiS obejmowały m.in.;
-Budowę menu nawigacyjnego
-Sposób nawigacji po banerach
-Ilość kluczowych banerów w górnej części
strony
-Umiejscowienie bloczka z bestsellerami
(góra / dół)
Ruch na testowe wersje SiS:
-Generowany z 3 głównych źródeł
(Google, Facebook, on-Site - linkowanie
wewnętrzne)
Czas trwania badania:
-Ok. 2 miesięcy, Q4 2014 – Q1 2015
(test A/B i test map strony)
v1 vs v2
15. Podsumowanie: wyniki testu A/B
Komentarz: wyniki badania istotne statystycznie,
badanie oparte na autorskiej infrastrukturze analitycznej euro.com.pl
Wersja #1 Badany element Wersja #2
+18,6% Konwersja (sprzedaż)
Bestsellery (kliknięcia) 2x więcej kliknięć
(ale bez różnicy dla sprzedaży)
+5% Przejścia na kartę produktu
+4% Przejścia na listing produktów
Brak zainteresowania Socialmedia (kliknięcia) Brak zainteresowania
Czas na stronie +10 sek.
+2,4% Współczynnik odrzuceń
+1%
Współczynnik odrzuceń dla
powracających użytkowników
Taki sam
Exit rate dla powracających
użytkowników
Taki sam
16. Podsumowanie: wyniki badania map
Rozważyć jak
zachęcić do
konsumpcji
całej strony
Wersja #1
Badany element
strony głównej
Wersja #2
Brak definitywnego zwycięzcy
Heat Map
Brak definitywnego zwycięzcyClick Map
Scroll map
17. Podsumowanie: wyniki badania map
Wersja #1
Badany element
podstron
Wersja #2
Brak definitywnego zwycięzcy
Heat Map
Brak definitywnego zwycięzcyClick Map
Scroll map
OK!
18. Podsumowanie i wnioski
Zwycięski Shop in Shop: wersja #1
1 Sprzedaż i konwersja
Większa konwersja (sprzedaż)
2 Przekierowania
Większa ilość przekierowań na strony produktów i listingi produktowe
3 Podstawowe współczynniki dla strony
Współczynnik odrzuceń: mimo, że minimalnie wyższy dla wygranej wersji i tak jest
bardzo niski
Mniejsza liczba kliknięć w Bestsellery: wynik oczywisty (moduł Bestsellerów na
dole strony), ale i tak nie przekłada się na spadek sprzedaży
Czas na stronie: średni czas niższy o ok. 10 sek od wersji #2 („to dobrze czy źle?”)
4 Mapy strony
Badanie map dla strony nie przyniosło rozstrzygających efektów, ale… to dobrze
Obydwie wersje strony spełniają swoje zadanie i są konsumowane przez
użytkowników, wyjątek dot. najniższych modułów SiSa
19. Kolejne kroki | Ewaluacja to proces
stały
1 Test A/B całego SiSa (prawdopodobnie pierwszy w Polsce)
2 Plan testów cząstkowych
Umiejscowienie banerów promocyjnych („czy przeniesienie ich wyżej
wpłynie na ich popularność i konwersję na sprzedaż?”)
Nagłówki poszczególnych modułów (np. „Bestsellery” vs „Polecane przez
Microsoft”)
Funkcjonalność głównego rotatora („czy kolejne slajdy są klikane?”)
Konsumpcja całej strony na podstawie scroll-map
(„jak zachęcić użytkowników do scrollowania całej strony?”)
3 Integracja rozwiązania typu lead-generation w ramach SiS
Testy umiejscowienia
Layout (spinacz vs standard)
Copy
Single opt-in vs double opt-in
20. Ponieważ testy map Shop-in-Shopów nie
wykazały krytycznych błędów, pokażmy na
innych przykładach w czym pomocne może
być takie badanie…
21. Bonus | Dotychczasowe learningi
Przykładowe wnioski jakich może nam dostarczyć badanie map strony,
na przykładzie LP Xbox Live na Euro.com.pl.
Legenda:
im jaśniejszy kolor – tym większa uwaga użytkownika
Pytanie: czy użytkownik konsumuje
całą stronę i wszystkie informacje?
22. Bonus | Dotychczasowe learningi
Funkcjonalność LP:
Licznik odmierzający czas do kolejnej oferty tygodnia i linkujący do modułu
promocyjnego w dolnej części strony
Cel:
Perswazja, sprzedaż, ale również delikatne wymuszenie na użytkownikach
zapoznanie się z całym contentem LP
(kliknięcie powoduje powolne scrollowanie strony do modułu z promocjami)
Użytkownik klika w cyfry licznika zamiast w call-
to-action, a cyfry nie są klikalne (nie linkują)
23. Bonus | Dotychczasowe learningi
Czy oglądane są wszystkie video, czy
tylko to domyślnie włączone?
24. Bonus | Dotychczasowe learningi
Czy użytkownikcy przeglądają content edukacyjny ,
który celowo ukryliśmy, żeby zachować przejrzystość strony?