2. Piramida wartości - Jagram
PIRAMIDA WARTOŚCI na podstawie teorii Maslowa
W 1943 roku amerykański psycholog Abraham Maslow przedstawił po raz pierwszy swoją teorię hierarchii potrzeb ludzkich. Często jest
wykorzystywana jako baza do tworzenia modeli opasujących rzeczywistość – również biznesową.
4. SEO – Search Engine Optimization
Optymalizacja dla wyszukiwarek internetowych,
zwana także pozycjonowaniem,
działania zmierzające do osiągnięcia przez dany serwis jak
najwyższej pozycji w wynikach organicznych wyszukiwarek
internetowych dla wybranych słów i wyrażeń kluczowych.
W Polsce królem wyszukiwarek jest Google. Silnik
Google ma w Polsce 98% rynku wyszukiwań.
5. Podstawa pracy nad SEO
Pamiętaj !
nikt nie zna dokładnie algorytmu działania wyszukiwarek
(poza ich twórcami).
nikt nie wie, jak będzie wyglądał ten algorytm za tydzień,
miesiąc czy za rok.
Jeśli ktoś mówi, że wie wszystko na temat działania
wyszukiwarek i pozycjonowania to zapomnij o nim. (chyba,
że pracuje w Gogle) .
Wiedza na temat działania wyszukiwarek pochodzi głównie
z doświadczenia ludzi.
Można opracować ogólne wytyczne. Nic więcej !
6. Jak Google ustala ranking?
Informacje n/t ustalania rankingu są kluczowe.
Przy tworzeniu witryny należy pamiętać, że nadrzędnym celem
każdej wyszukiwarki jest
informowanie szukającego o stronach, które dostarczą mu najwięcej
wartościowych informacji na dany temat.
Ranking jest przygotowany właśnie po to, aby spełniać to zadanie.
Dla odpowiedniego zaprojektowania serwisu WWW "pod"
Google, należy wiedzieć 2 rzeczy:
jak działa wyszukiwarka
co wpływa na ranking
Za ocenę strony odpowiada m.in. program wyszukujący i Page
Rank (w Google).
7. Z czego składa się wyszukiwarka?
WYSZUKIWARKA to zespół serwerów (Google ma ok. 1 000 000) z
odpowiednim oprogramowaniem na które składa się z 4 elementy
Pajączek (inaczej: bot, robot, spider, crawler) – program
czytający strony internetowe
Baza danych (kopie wszystkich stron WWW znalezionych
lub zgłoszonych do Google)
Indeks (spis wszystkich fraz kluczowych z odnośnikami do
stron na których się te frazy znajdują)
Programu wyszukującego i klasyfikującego PR
12. Pajączek, robot, bot, spider, crawler
Pajączek to program, który czyta kod
strony, zapamiętuje go i poddaje analizie.
Spider czyści kod ze zbędnych dla niego znaczników HTML i zapisuje
tylko interesujący go tekst z właściwymi mu znacznikami oraz
gdzie dany fragment tekstu się znajdował w kodzie strony:
tytuł,
meta opis (description), meta frazy kluczowe(key words)
nagłówek H1-H6,
zwykły tekst
anchor tekst (tekst zakotwiczenia - linkujący)
podpis pod zdjęciem.
Crawler po przeczytaniu strony podąża kolejno po linkach znajdujących
się na stronie a nastepniie opuszcza ją linkiem wychodzącym
13. Baza danych i indeks
Baza danych - to zebrane przez robota informacje o
słowach występujących na poszczególnych stronach
www
Na zindeksowane (czyli przeczytane i opisane) strony
roboty wracają po pewnym (określonym) czasie lub
przy ponownym zaproponowaniu strony do indeksacji.
Sprawdzają wówczas, czy strony się zmieniły i
ewentualnie aktualizują swoje zasoby.
Baza danych jest indeksowana - czyli jest tworzony
indeks,
Indeks - to spis wszystkich słów wraz z odnośnikami
do miejsc występowania ich w bazie danych.
Indeks wyszukiwarki można porównać do indeksu,
który można znaleźć w książkach - idea działania jest w
zasadzie identyczna.
14. Program wyszukujący + Page Rank
Kiedy internauta wpisuje jakieś słowo / frazę w wyszukiwarce, program
wyszukujący przeszukuje indeks w poszukiwaniu tego słowa /zwrotu.
Jeśli dane słowo zostanie znalezione, program wyszukujący czyta
wszystkie strony z bazy danych oznaczone w indeksie jako
zawierające dane zapytanie.
Następnie ocenia wartość każdej strony – czyli Page Rank w skali
szacunkowej od 0 do 10
dla przykładu Google ma PR - 8, a Jagram – 4
Oceną strony zajmują się algorytmy w samym programie
wyszukującym.
Na ocenę ma wpływ również występowanie w DMOZ dla Google –czyli w
katalogu stron internetowych stworzonym przez Google
Liczba linków Link Popularity prowadzących do strony
Oraz ponad 200 innych parametrów
Na podstawie ocen jest tworzony ranking i wyświetlana
kolejność propozycji wyszukiwań.
16. Autorytet domeny- Trust authority
Autorytet domeny określany jest przez Google poprzez ocenę
liczby linków przychodzących z wartościowych stron do witryny.
Istotny jest również sposób linkowania oraz miejsce, w którym
znajdują się odsyłacze.
Wiek domeny.
17. Link Popularity, czyli - link linkowi nie równy
Link Popularity jest to ilość zindeksowanych stron
czyli zidentyfikowanych i opisanych przez Google, które posiadają
linki do naszej.
Liczą się oczywiście tylko te strony, które nie są częścią naszego
serwisu.
Najważniejsze czynniki, stanowiące o sile danego linku:
brak atrybutu ”no follow” (ten atrybut blokuje śledzenie linku
przez robota)
wartość strony, na której znajduje się link do naszego
serwisu
powiązanie tematyczne linkującej i linkowanej strony
tzw. anchor tekst, czyli treść zakotwiczenia /tytuł linka/
miejsce umieszczenia linka na stronie
wymiana linków po przez strony zapleczowe – unikanie
wymiany linków
18. Treść linka - Anchor tekst
Roboty wyszukiwarek zapamiętują anchor text, czyli
frazę która jest odsyłaczem do naszej strony.
Jest to treść zawarta pomiędzy znacznikami <a>…</a> .
Gdy do strony prowadzi link zawierający słowo lub frazę
kluczową,
np.: altany ogrodowe to ma on o wiele większą wagę, niż
link zawierający np. adres serwisu: www.jagram.com.pl
19. Tekst na stronie - treść – kontent
Wyszukiwarki indeksują cały tekst, /to co znajduje się w sekcji body/
Dlatego frazy kluczowe, muszą znajdować się w treści strony !!!
20. Tytuł strony
Znacznik >title/<
Wszystkie roboty zapamiętują tytuł strony, ponieważ jest on
jednym z głównych i najważniejszych kryteriów rankingu.
21. Pozostałe elementy strony, a PR
Nagłówki h1-h6
Są to tytuły poszczególnych akapitów (części strony). Słowa tam
użyte maja znacznie większe znaczenie niż to samo w treści strony.
Znaczniki meta
Informacje z meta description (opis strony) są ważne jedynie ze
względu na treść skierowana do czytelnika wyniku wyszukiwania
(wpływają na konwersję kliknięć w wynik)
meta keywords (sowa kluczowe). Aktualnie Google nie bierze ich
pod uwagę. Jednakże dla spójności strony słowa kluczowe tam
wpisane muszą apotem pojawiać się w treści strony.
Linki wewnętrzne
Należy zadbać, aby strony były połączone ze sobą (najważniejszy
jest anchor tekst).
Linki zewnętrzne - wychdzące
Musi być przynajmniej 1, ogólnie im mniej tym lepiej
23. Słowa kluczowe - czyli od czego
zacząć pozycjonowanie
Pozycjonowanie serwisu WWW zawsze MUSI
rozpocząć się od doboru słów kluczowych!
FILM_ 3_Dobór słów kluczowych
24. Dobór słów kluczowych
Na początku warto zająć się słowami lub frazami
nieco mniej popularnymi (niszowymi). Najczęściej
składających się z kliku słów – „długi ogon”
Walka o wysokie pozycje dla słów /fraz bardzo
popularnych może - zakończyć się porażką.
Pamiętaj:
lepiej być w Top10 na 10 mniej popularnych fraz,
niż w drugiej dziesiątce na 1 bardzo popularne słowo.
27. Jak wybrać słowa kluczowe?
znać swoje produkty i przewagi konkurencyjne
znać swój rynek i przeanalizować konkurencję
skorzystać z GoogleTrends i KeywordToolExternal
Wybrać najmocniejsze słowa /frazy kluczowe
najlepiej opisujące nasz biznes (z punktu widzenia
klienta)
28. Znaj swój biznes
co oferujesz (w jaki sposób)
komu to oferujesz, - grupa docelowa
co chcesz osiągnąć (udział w rynku, marża)
jak szybko chcesz to osiągnąć
jakimi dysponujesz środkami.
29. Analiza konkurencji
Sprawdź kod źródłowy tych stron.
Zobacz, jak są zbudowane. Zwróć uwagę zarówno na treść
tych serwisów, znaczniki meta, rodzaj i ilość słów
kluczowych: w tytule, opisie, tagu keywords, nagłówkach i
treści. Przyjrzyj się linkom na stronie (anchor tekst) itp
30. SeoQuake - Badanie stron internetowych
Dodatek SeoQuake to proste narzędzie do dokłądnego badania
odwiedzanych stron (zarówno własnych jak i tych konkurencji)
32. Narzędzia doboru słów kluczowych
https://adwords.google.com/select/KeywordToolExternal
- zdecydowanie najważniejsze narzędzie!
boksy.onet.pl/ranking.html - Najczęściej wpisywane słowa i
frazy w przeglądarce tego portalu. Wyniki cechuje sezonowość,
więc należy być ostrożnym w ocenie sytuacji.
szukaj.wp.pl/najpop.html - najpopularniejsze strony wg
Wirtualnej Polski.
szukaj.wp.pl/zapytania.html (ostatnie 10 zapytań w WP).
www.google.com/trends - Można porównywać słowa kluczowe
pod względem popularności
Dodatkowo dobrym pomysłem jest pytanie znajomych, rodziny,
przyjaciół, robienie testów, quizów etc.
34. KeywordToolExternal - interpretacja wyników
Mamy 4 rodzaje dopasowań:
dopasowanie zbliżone - oznaczone jako – przybliżone
Brane są pod uwagę wszystkie wyszukiwania, które nie są w cudzysłowie i w których
występuje to słowo lub jego synonim
dopasowanie do frazy - oznaczone jako - ”do wyrażenia”
Są to dokładne frazy, muszą być w określonej kolejności, ale mogą też występować inne
dodatkowo wyrazy np. "używane książki” - używane książki promocja
Dopasowanie dokładne - oznaczone jako - [ścisłe]
Są to dokładne słowa lub frazy w określonej kolejności bez żadnych dodatkowych słów
wykluczenie- oznaczone jako - wykluczenie
35. KeywordToolExternal - interpretacja wyników
funkcja - Wykluczenie
Zdecydowanie najlepiej jest wybierać typ ”do wyrażenia”
lub - [ścisłe] i użyć funkcji – wykluczenie
Przykład dla strony o operacjach plastycznych nosa
36. Optymalizacja stron internetowych
Właściwa kolejność działań:
Budowa lub instalacja serwisu
Optymalizacja stron serwisu
Pozycjonowanie
Wszystko w celu bycia pierwszym
na liście wyszukiwań
37. Optymalizacja etap techniczny
Przyjazne adresy URL - przyjaznych linkach można umiejętnie przemycić słowa kluczowe, co
pomaga (i to znacząco) w pozycjonowaniu
HTML i CSS - Style umieszczaj w osobnym pliku - dzięki czemu nie obciążą samej strony
skrypty stosować tylko w razie konieczności - Niepotrzebnie obciążą stronę i wydłużą czas jej
ładowania
Technologia Flash nie jest dobrym rozwiązaniem - trudno się je nawiguje, pozycjonuje, w
przeglądarkach są często blokady aplikacji Flash.
Ramki (frames) – nie stosuj ramek, sztucznie dzielą serwis na pojedyncze strony i trudno uzyskać
dużą moc dla całego serwisu.
Zrób mapę strony - może pomóc w całościowym zindeksowaniu serwisu
Logiczna i spójna nawigacja - ważne zarówno ze względu na jego użytkowników, jak roboty
Strona musi być lekka - powinna szybko się ładować, to też ocenia Google
Meta robots uzupełnione - dzięki temu znacznikowi sterujemy robotem wyszukiwarki.
Domena internetowa - najlepsza jest domena z końcówką .pl (lub inną narodową
38. Domena
Domena internetowa - najlepsza jest domena narodowa – dla Polski z końcówką .pl lub
com.pl . Ważne aby nie była zbyt długa i łatwa do zapamiętania.
Dobrze aby zawirała słowo/słowa kluczowe – ponieważ jeśli domena to
www.jakas_strona.pl, to będziesz wypozycjonowany na pewno na... "jakaś strona".
Dostępność domen
sprawdzić można na
http://www.dns.pl/cgi-bin/whois.pl
39. Optymalizacja treści – content
Meritum pozycjonowania - Treść.
Jak nie umiesz dobrze pisać – to masz problem. Są 2 wyjścia:
naucz się pisać – bardzo dobre rozwiązanie
zleć copywriting – trochę gorzej – bo i tak musisz to potem
poprawić pod kątem SEO
40. Optymalizacja treści - Tytuł strony
Jest najważniejszy. Powinien zawierać 5-10 słów (około 65-75 znaków).
41. Tytuł strony - elementy
Metoda WIELKIEJ TRÓJKI
Chodzi o to, żeby pierwsze 3 słowa tytułu były dobrane w ten sposób,
aby dowolna ich kombinacja dawała frazę kluczową
Oraz aby te słowa wstępowały w treści strony
42. Meta tag description – opis strony
Jest bardzo ważny bo pojawia się jako opis serwisu w wynikach
wyszukiwania.
Musi zawierać słowa kluczowe - najlepiej 4-6 fraz kluczowych (najważniejsze - na początku).
Opis nie może być dłuższy niż 255 znaków. Najlepiej 150-200 znaków
43. Meta tag keywords
To słowa kluczowe opisujące Twój serwis (konkretną
podstronę).
Należy podkreślić: w meta tagach strony muszą znajdować
się słowa / frazy, które występują w treści strony (w sekcji
body). Inaczej możesz zostać oskarżony o SPAM.
Wpisując słowa kluczowe powinieneś mieć na
uwadze:
liczbę pojedynczą i mnogą
wyrazy pisane z małej i wielkiej litery
wyrazy z błędami literowymi i ortograficznymi.
44. Nagłówki h1.... h6, Opisy Alt
Całkowita ilość słów zawarta w nagłówkach nie powinna przekraczać 10
i powinna zawierać frazy kluczowe.
45. Główny tekst strony – sekcja body
Każda podstrona powinna się składać z około 250 do 800 słów z podziałem na
sekcje w znacznikach H1-H6.
Dobre nasycenie słowami kluczowymi, ale nie za wysokie – najlepiej ok. 3-6%.
Najważniejsze słowa kluczowe powinny znajdować się blisko góry kodu strony
Tekst musi być dobry pod każdym względem: treści, sensu, układu, łatwości
zrozumienia, przejrzystości, gęstości słów / fraz kluczowych itd.
Treść musi być aktualizowana
i często zmieniana
Algorytm Google PANDA
bardzo mocno promuje
unikalną i świeżą treść
46. Zdobywanie linków - zwykłe katalogi
Zwykły katalog to witryna, na której znajdują się linki do
różnych stron internetowych pogrupowanych tematycznie np.
Google - Open Directory Project: www.dmoz.org
Onet.pl - Ogólnopolski Katalog Onetu: katalog.onet.pl
Wirtualna Polska - Katalog WP - katalog.wp.pl
katalogi umożliwiają również umieszczanie linków w treści opisu –
zwrócić należy uwagę na to aby nie było atrybutu „no follow”
47. Presell pages – katalogi specjalne
To katalog stron, w którym umieszczane są artykuły
A z kolei w tych artykułach znajdują się linki z odpowiednimi
anchor tekstami. (odnośnikami zawierającymi frazę kluczową)
zwrócić uwagę aby nie było atrybutu „no follow”
umieszczaj unikatową treść
za zduplikowaną treść
można dostać bana
48. Błędy przy zdobywaniu linków
Unikaj linków:
ze stron kompletnie nie związanych z tematyką serwisu -
takie linki są zazwyczaj mało wartościowe
ze stron o charakterze erotycznym /pornograficznym -
unikaj ich jak ognia,
z tzw. farm linków - czyli serwisów tworzonych tylko w
jednym celu: upychania możliwie największej ilości łączy –
takie linki nie mają wartości
49. Inne techniki zdobywania linków
blogi, fora, księgi gości, komentarze
darmowe ogłoszenia
płatne katalogi stron
kupowanie linków
wymiana partnerska (cross linking)
artykuły tematyczne (direct linking)
systemy wymiany linków
50. Zaplecze pozycjonerskie
Jest to zestaw stron WWW utworzonych dla jednego głównego celu:
pozycjonowania wybranego serwisu / serwisów.
blogi
własne forum
niezależne dodatkowe strony tematyczne na osobnych domenach i IP
własny katalog stron
Staraj się nie linkować 2 stron wzajemnie. Zasada a-b,b-c,c-a
51. Zalety posiadania własnego bloga
Google uwielbia serwisy, które są często aktualizowane
(Algorytm PANDA)
Uzyskanie miejsca do umieszczania b.mocnych linków – wzrost PR
Przekierowanie targetowane - wzrost wartościowego ruchu na sklepie
Pisząc bloga - ludzie zaczną kojarzyć: "To ten od altan i pergoli".
Budowanie opinii eksperta w danej dziedzinie.
Ekspert = zaufanie, autorytet
52. Kary przy pozycjonowaniu - ban
Tuczenie znaczników meta i title słowami kluczowymi (powinno być max 4-6)
Umieszczanie w meta tagach słów kluczowych, których nie ma na stronie
Niewidzialny – np. w kolorze tła strony lub "Malutki tekst".- czcionka 1pxl
Jump pages -ustawienie meta refresh na bardzo krotki czas na stronie
przejściowej sztucznie wypozycjonowanej na 1 słowo
Farmy linków – sztucznie stworzone
strony wyłącznie z samymi odnośnikami
Duplikowanie treści
– kopiowanie cudzych tekstów BAN
53. Błędy przy pozycjonowaniu
Pozycjonowanie strony bez uprzedniej optymalizacji
Zbyt popularne (ogólne) frazy kluczowe – lepiej zaczynać od fraz „długiego ogona”
Robienie kopii innych stron – chodzi oczywiście o tekst (duplicate conntent)
Długie domeny ze słowami kluczowymi – domena nie może być zbyt długa (max 2-3słowa)
Umieszczanie treści na dole w kodzie strony – najcenniejsza treść powinna być u góry strony
Zbyt szybkie zdobywanie linków – powinno być kilka dziennie nowych
Wymiana linków z kiepskimi serwisami – oraz z ograniczeniami nofollow
Wzajemne linkowanie w obrębie własnych serwisów z zaplecza A-A, B-B, C-C
- zawsze powinno być A-B, B-C, C-A
Zaplecze na jednym serwerze – strony zapleczowe musza mieć różne IP
Ograniczony dostęp do serwisu – np. po przez konieczność logowania (tam nie zaglądają roboty)
Kiepski serwer – słabe łącze
Zlecenie pozycjonowania amatorom
54. Podstawowe narzędzia SEM
www.google.com/analytics - podstawa analizy wyników
www.google.com/trends - szukanie optymalnych słów kluczowych
www.adwords.google.com/select/KeywordToolExternal - dobór słów kluczowych
www.firefox.pl - najlepsza dla pozycjonera przeglądarka WWW
www.addons.mozilla.org/pl/firefox/ - dodatki do liska
http://www.seoquake.com / - program do analizy SEO w czasie rzeczywistym
www.seocentro.com - serwis z narzędziami do użycia on-line.
www.seolight.pl - program służący do półautomatycznego katalogowania i preclowania.
www.semonitor.pl – do analizy SEM
55. Google Analitics – podstawa
analizy ruchu na stronie
Ruch na stronie - Jest to liczba unikalnych
użytkowników odwiedzających dany serwis. Nie
mylić z liczbą kliknięć (odsłon).
56. Strony o pozycjonowaniu
www.katalogiseo.info - spis katalogów.
www.seo.net.pl/spis_presellpage/ - spis katalogów Presell Pages.
www.ebiznesy.pl – blog Pawła Krzyworączki
www.forum.ebiznesy.pl – forum Pawła Krzyworączki
www.cneb.pl - płatne forum -masa wiedzy, w tym również sporo np. o SEO
www.seoadder.info – automatyczne dodawanie do katalogów
www.publiker.pl - automatyczne dodawanie do katalogów
www.ittechnology.us - świetny blog. Mnóstwo cennych informacji
www.seoportal.pl - serwis o SEO
www.seo24.com.pl - serwis o SEO
www.forum.optymalizacja.com , http://interaktywnie.com/biznes/raporty
57. Książki o pozycjonowaniu
Marketing z Google.
Paweł Kobis - najlepsza, najbardziej kompleksowa
Pozycjonowanie i optymalizacja stron WWW. Jak to się robi?
Bartosz Danowski, Michał Makaryk