AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA...

49
AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICA WYDZIAŁ INŻYNIERII METALI I INFORMATYKI PRZEMYSŁOWEJ PRACA DYPLOMOWA MAGISTERSKA Narzędzie do optymalizacji i pozycjonowania stron internetowych dla wyszukiwarki internetowej na przykładzie wybranego serwisu internetowego. Autor: Łukasz Jaworski Kierunek Studiów: Informatyka Stosowana Specjalność: Modelowanie i Technologie Informatyczne Promotor: dr Magdalena Kopernik Recenzent: Prof. dr hab. inż. Jan Kusiak Podpis dyplomanta Podpis promotora Kraków 2011

Transcript of AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA...

Page 1: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICA

WYDZIAŁ INŻYNIERII METALI I INFORMATYKI PRZEMYSŁOWEJ

PRACA DYPLOMOWA MAGISTERSKA

Narzędzie do optymalizacji i pozycjonowania stron internetowych dla wyszukiwarki internetowej na przykładzie wybranego serwisu internetowego.

Autor: Łukasz Jaworski

Kierunek Studiów: Informatyka StosowanaSpecjalność: Modelowanie i Technologie InformatycznePromotor: dr Magdalena KopernikRecenzent: Prof. dr hab. inż. Jan Kusiak

Podpis dyplomanta Podpis promotora

Kraków 2011

Page 2: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Oswiadczam, świadomy(-a) odpowiedzialnosci karnej za poswiadczenie nieprawdy, że niniejszy projekt magisterski wykonałem(-am) osobiscie i samodzielnie i nie korzystałem(-am) ze zródeł innych niż wymienione w pracy.

Kraków, dnia ................ Podpis dyplomanta ........................

Łukasz Jaworski – Praca Magisterska 2

Page 3: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Spis treści:0 Wstęp

Część I - Teoretyczna 1 Algorytmy wyszukiwarek 2 Wyszukiwarka Google 3 Internet

3.1 Internet na świecie 3.2 Internet w Polsce

4 Pozycjonowanie 5 Czynniki wpływające na pozycje witryny

5.1 Meta tagi 5.1.1 Meta title 5.1.2 Meta keywords 5.1.3 Meta description

5.2 Znacznik title 5.3 Nagłówki 5.4 Wyróżnienia tekstu 5.5 Oryginalność treści 5.6 Tekst alternatywny 5.7 Adres witryny 5.8 Adresacja podstron 5.9 Wiek strony oraz wiek domeny 5.10 PageRank 5.11 Linki z innych stron 5.12 Linkowanie wewnętrzne

6 Analiza słów kluczowych 6.1 Google Analytics - Źródła odwiedzin 6.2 Google Trends 6.3 Google Insight 6.4 Cele konwersji

7 Podsumowanie części teoretycznej 8 Cel i założenia pracy

Część II – Badania własne 9 Charakterystyka aplikacji oraz omówienie jej głównych składowych

9.1 Funkcjonalność 9.2 Opis Interfejsu

9.2.1 Analiza konkurencji 9.2.2 Analiza Backlinków

9.2.3 Pozycje zdefiniowanych stron

9.2.4 Raporty stron

10 Badania i wnioski 11 Podsumowanie i wnioski

Łukasz Jaworski – Praca Magisterska 3

Page 4: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

0. Wstęp

Stale rosnący odsetek osób posiadających dostęp do Internetu wymusza, a zarazem zachęca firmy do docierania do swoich potencjalnych klientów, właśnie za pomocą tego medium. Przynajmniej raz w tygodniu korzysta z komputera 55 proc. Polaków. Dwie trzecie ma go w domu, z czego zdecydowana większość - z dostępem do sieci. Prawie wszyscy internauci korzystają z sieci w domu, połowa w szkole lub pracy. Średnio polski internauta spędza w sieci 15 godzin tygodniowo, a więc ponad dwie godziny dziennie. Ponad dwie trzecie z nich (67 proc.), czyli około jednej trzeciej ogółu dorosłych, dokonało zakupu przez Internet.W 2010 roku wydatki na reklamę online wyniosły w Polsce 1,578 mld zł, co oznacza wzrost o 15% w stosunku do roku poprzedniego (17%, porównując tylko te podmioty, które wzięły udział w badaniu w obydwu latach – 2009 i 2010). Jest to wzrost znacznie wyższy niż w 2009 roku (12,9%) i jasno daje do zrozumienia, że gospodarka wyszła z kryzysu i zwiększają się budżety reklamodawców. W dalszym ciągu największy udział ma display z 45%. udziałem w całości wydatków (spadek o 5% w stosunku do 2009 r.), następny w kolejności jest SEM (ang. Search Engine Marketing, Marketing w wyszukiwarkach internetowych) 30%, co daje wzrost o 4% w stosunku do 2009 r., ogłoszenia (17% – wzrost o 2%) oraz e-mail marketing z takim samym jak w 2009 r., 6 procentowym udziałem. Widać więc, bardzo szybko rosnące zainteresowanie reklamą w wyszukiwarkach internetowych i pozycjonowaniem.

Dlaczego jest to takie ważne?• internauci znacznie częściej wchodzą na strony pokazujące się wyżej w wynikach

wyszukiwania,• odpowiednio dobrane frazy kluczowe mogą przyczynić się do pozyskania ruchu z

odpowiedniej grupy docelowej,• wśród wielu Internautów panuje przekonanie, że zajmowanie wysokich pozycji w wynikach

wyszukiwania jest tożsame z wysoką jakością usług czy produktów dostępnych w ofercie firmy.

Istotnym czynnikiem przyczyniającym się do wzrostu zainteresowania firm pozycjonowaniem jest również relatywnie niski koszt tej formy promocji.W niniejszej pracy zostały opisane czynniki wpływające na pozycję witryny zajmowaną w wynikach wyszukiwania, a także przygotowana została aplikacja wspomagająca firmę w pozycjonowaniu stron internetowych, poprzez pomiar i analizę tych że czynników. Dzięki tej aplikacji, wiele żmudnych i czasochłonnych procesów jakie mają miejsce podczas pozycjonowania stron internetowych zostaje zautomatyzowanych, a wyniki zapisywane i dostępne w dowolnym momencie.Podczas pisania tej pracy, część funkcjonalności stworzona została na zamówienie firmy HanBright S.A. i będzie wykorzystywana komercyjnie, wspomagając pozycjonerów w tej firmie.

Łukasz Jaworski – Praca Magisterska 4

Page 5: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

1. Algorytmy wyszukiwarek

Wyróżniamy kilka podstawowych rodzajów algorytmów wyszukiwania. Od wyszukiwarek opartych na analizie meta danych, poprzez wyszukiwarki analizujące treść stron internetowych, topologię sieci, skończywszy na wyszukiwarkach analizujących zachowania użytkowników. Istnieją również wyszukiwarki oparte na zasadzie aukcji miejsc. Na samym początku istnienia wyszukiwarek internetowych działały wyszukiwarki, które działały w oparciu o informację zawarte w meta danych dokumentu HTML. Wyszukiwarki oparte na analizie meta danych, były jednak bardzo podatne na nadużycia ze strony użytkowników. Wystarczyło podać nieprawdziwe dane w polach meta, aby zmylić wyszukiwarki, które w tych czasach nie analizowały treści strony.Pózniej przyszedł czas na wyszukiwarki oparte na analizie treści strony, działające w oparciu o algorytm binarnej wagi słów. Binarna waga słów to jedna z metod określania relatywności dokumentu względem termu (zadanej frazy, słowa). W tym celu określa się współczynnik Wij=1 lub Wij=0, gdzie Wij oznacza słowo i w dokumencie j z kolekcji dokumentów.Uogólniając, metoda ta daje jedynie informacje czy dane słowo w występuje w dokumencie i czy też nie i nadaje współczynnikowi Wij odpowiednią wartość, gdy słowo:

występuje – 1,nie występuje -0.

Jednak sama ocena wystąpienia frazy, szybko okazała się nie wystarczająca. Konieczna okazała się analiza częstości występowania słów. Zastosowanie tutaj ma algorytm TF z ang. Term Frequency, częstość wystąpienia słowa. W mechanizmach wyszukiwarek internetowych, algorytm ten określa częstość wystąpienia żądanych słów w obrębie badanego dokumentu.Wymieniony algorytm również nie przetrwał próby czasu. Poprzez częste powtarzanie w treści dokumentu danej frazy, można było zmylić algorytm odnośnie faktycznej zawartości dokumentu. Użytkownik zamiast użytecznych informacji dostaje linki na strony nie mające nic wspólnego z jego zapytaniem.[1]Kolejnym i przełomowym krokiem, było wprowadzenie algorytmu wyszukiwania opartego na analizie topologi sieci, co przedstawię na przykładzie.Wyszukiwarki uważały stronę A za odpowiednią na zapytanie o frazę „gry”, jeżeli wiele stron o tematyce gier, linkuje do strony A. Inaczej, im więcej stron w sieci powołuje się na dany dokument, tym jego pozycja w wynikach wyszukiwania będzie wyższa.Pierwsza wyszukiwarka, która zastosowała zaawansowane algorytmy analizy topologii sieci było Google. Wyszukiwarki oparte na analizie topologicznej są często uważane za bardzo odporne na nadużycia. W rzeczywistości stosunkowo częstym atakiem są spam-systemy automatycznej wymiany linków. Inną formą ataku jest stworzenie dużej ilości gęsto linkowanych stron, z czego wszystkie na ten sam temat. Jest to jednak zadanie trudne i wymagające dużego nakładu pracy, a modyfikując heurystykę wartości początkowych można znacznie ograniczyć ten proceder, którego skala na razie jest minimalna. Nieco inne podejście do wyszukiwania prezentuje algorytm wprowadzony przez Overture system, gdzie strony płacą wyszukiwarce za pozycje kilka centów, po czym pozycje są licytowane, a strona która płaci więcej, może liczyć na wyższą pozycję. Nie jest to najlepsze rozwiązanie, ale połączone z oceną jakości reklam i stron, może dawać zadowalające wyniki. Taki model pózniej wprowadziło Google, pod nazwą Google AdWords.

Łukasz Jaworski – Praca Magisterska 5

Page 6: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

W chwili obecnej, algorytmy wyszukiwania są o wiele wiele bardziej skomplikowane. Najpopularniejszy z nich, działa w oparciu o algorytm PageRank. PageRank jest to metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej jej jakość. PageRank jest rozwiniętą, od dawna znaną już heurystyką, wedle której jakość dokumentu jest proporcjonalna do liczby dokumentów na niego się powołujących. Ulepszenie zaproponowane przez Larry'ego Page'a i Sergeya Brina polegało na ważeniu jakości linków wskazujących na dany dokument. Cała idea podobna jest do idei publikacji naukowych. Jeśli na daną publikację powołują się inne artykuły, cytują ją i przy tym same mają wysoką ocenę jakości, ma to większe znaczenie, niż gdy na ten sam tekst powołuje się mało popularny artykuł. [2]

Metody zbliżone do algorytmu PageRank są obecnie coraz śmielej wprowadzane do mechanizmów innych wyszukiwarek internetowych. Jednak szczegóły właściwego algorytmu PageRank nigdy nie zostały upublicznione. Wszystkie ogólnodostępne informacje przedstawiają jedynie wzorcową wersję algorytmu stosowanego w wyszukiwarce Google. Ponadto w aktualnej wersji wyszukiwarka PageRank jest tylko jednym z wielu czynników decydujących o ostatecznej pozycji strony w wynikach wyszukiwania.

Łukasz Jaworski – Praca Magisterska 6

Page 7: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

2. Wyszukiwarka Google

W następnym rozdziale opiszę najistotniejsze czynniki, mające wpływa na pozycję strony. Są to elementy na stronie docelowej i na stronach polecających naszą stronę – konstrukcja linków. Pojawienie się wyszukiwarek internetowych bardzo silnie zmieniło sposób korzystania z globalnej sieci. Ich gwałtownie rosnąca popularność zakończyła dominację portali oraz katalogów stron, które dotąd były bazą stron internetowych. Na świecie działają setki różnych serwisów oferujących usługi wyszukiwania. Wiele z nich specjalizuje się w określonych dziedzinach oraz branżach (np. Search4Science wyszukiwarka zródeł naukowych). Wyszukiwarki można również podzielić ze względu na zasięg. Globalne (np. Google, Yahoo, Bing) oraz lokalne (Netsprint, Baidu, Yandex). Pierwsza grupa obejmuje swym zasięgiem wszystkie państwa, druga umożliwia przeszukiwanie zasobów sieci na rodzimych rynkach. Na polskim rynku Google jest niekwestionowanym liderem. Z roku na rok amerykańska organizacja umacnia swoją silną pozycję. Na rynku wyszukiwarek nie widać żadnego konkurenta, który mógłby choć w najmniejszym stopniu zagrozić temu potentatowi w naszym kraju. Zgodnie z raportem firmy comScore w grudniu 2009 użytkownicy zadali blisko 131 miliardów zapytań, co prowadzi do 29 milionów zapytań na minutę. Daje to wzrost rzędu 46% porównując do analogicznego okresu roku poprzedniego. Do eksploracji sieci najczęściej wykorzystywaną wyszukiwarką było Google, które utrzymało tempo wzrostu na poziomie 58%, co pokazano w tabeli 1.[3]

Tabela 1. Tabela przedstawia 5 najpopularniejszych wyszukiwarek na świecie pod względem liczby zapytań (w milionach). [4]

Liczba wyszukań ( w milionach )

Styczeń, 2008 Styczeń, 2009 Zmiana w procentach

Świat 89,71 131,35 46,00%

Google Sites 55,64 87,81 58,00%

Microsoft Sites 2,4 4,09 70,00%

ebay 1,33 2,1 58,00%

Yandex 992 1,89 91,00%

Ask Network 1,05 1,51 43,00%

Blisko 97% wejść na polskie strony z wyszukiwarek jest generowane przez wyszukiwarkę Google. Między systemami wyszukiwań istnieje olbrzymia przepaść, którą obrazują pozycje kolejnych firm. W zestawieniu kolejną lokatę zdobyła wyszukiwarka Bing (wcześniej MSN) z udziałem 1,62% oraz polski NetSprint z 0,75%. Według zestawienia Gemius strona Google jest najczęściej odwiedzaną witryną w Polsce. Spośród 10 najpopularniejszych witryn w Polsce aż 5 jest ściśle powiązana z amerykańskim potentatem. Serwisy takie jak: Onet.pl, Interia.pl, Nasza-Klasa.pl oraz Gazeta.pl udostępniają swoim użytkownikom możliwość przeszukiwania sieci w oparciu o technologię Google. Witryny te nie tworzą od podstaw swoich systemów oraz algorytmów, ale korzystają z gotowych rozwiązań udostępnionych przez lidera. Wszystkie statystki oraz badania pokazują, iż w Polsce na rynku wyszukiwarek istnieje tylko jeden główny podmiot, który zmonopolizował udział w zapytaniach, co przedstawiono w tabeli 2.

Łukasz Jaworski – Praca Magisterska 7

Page 8: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Tabela 2. Ranking grup witryn i witryn niezgrupowanych według zasięgu miesięcznego. [5]

Serwis Zasięg w % Użytkownicy w tys.

Odsłony w mln.

Grupa Google 91.17 17337,2 b.d

Grupa Onet.pl 72.85 13852,4 2828,88

Grupa Wirtualna Polska - Orange 67.35 12806,8 2292,55

Grupa Nk.pl 64.93 12346,5 b.d

youtube.com 63.49 12073,6 b.d

Grupa Gazeta.pl 62.67 11916,6 1106,66

Grupa Allegro.pl 61.35 11665,8 4995,67

Grupa INTERIA.PL 59.24 11265,5 1080,80

facebook.com 57.77 10985,0 b.d

Grupa o2.pl 53.36 10146,2 1025,30

Grupa Wikipedia 46.08 8762,1 b.d

Grupa GG Network 28.88 5492,0 150,85

*b.d – brak danych

Łukasz Jaworski – Praca Magisterska 8

Page 9: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

3. Internet

3.1. Internet na świecieCo trzeci mieszkaniec globu (29%) korzysta z Internetu. Przeliczając na populację jest to około 2 mld osób. Wśród internautów dominują Azjaci, stanowiący 42% wszystkich korzystających z sieci (825 mln osób), a co czwartym internautą (24%) jest mieszkaniec Europy. Choć mieszkańcy Ameryki Północnej stanowią tylko 13,5% wszystkich internautów, to region ten cechuje się najwyższą penetracją usługi – 77% mieszkańców regionu korzysta z sieci. Kolejne miejsca pod względem penetracji usługi zajmują Oceania/Australia (61%) oraz Europa (58%). Liczbę internautów na świecie pokazano na rysunku 1.

Rysunek 1. Liczba internautów na świecie – w milionach. [6]

Systematycznie rośnie korzystanie z Internetu w krajach członkowskich Unii Europejskiej. W 2005 roku aż 48% gospodarstw domowych spośród 27 krajów Unii Europejskiej (badani w wieku 16-76) korzystało z Internetu. W ciągu 5 ostatnich lat odsetek ten wzrósł o 22%, aż do 70%. Wśród krajów europejskich liderem w dostępie do Internetu jest Holandia (93%), a także Luksemburg, Islandia i Norwegia – gdzie w 2010 roku dostęp do Internetu miało 9 na 10 gospodarstw. Polska, ze wskaznikiem 63%, znajduje się w środku listy krajów europejskich.

3.2. Internet w PolsceWedług danych Głównego Urzędu Statystycznego w 2010 roku 63% polskich gospodarstw domowych korzystało z Internetu. Jest to wzrost o 5% w porównaniu z rokiem 2009 i aż o 16% więcej w stosunku do roku 2008. Z prowadzonych od 2001 roku badań Net Track wynika, że już ponad połowa Polaków (a dokładnie 52%) w wieku 15 lat i więcej korzystała w 2010 roku z Internetu. W przeliczeniu na populację daje to 15,8 mln osób. W porównaniu z 2009 rokiem liczba internautów wzrosła o 800 tys. (2%), co jest małym spowolnieniem tempa wzrostu w stosunku do lat ubiegłych, kiedy notowano wzrost o 5% (w 2009 r.) czy o 3% (w roku 2008).

Łukasz Jaworski – Praca Magisterska 9

Page 10: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Tabela 3. Liczba i odsetki internautów w Polsce. [7]

Użytkownicy w milionach

%

2001 3,6 11,9

2002 5,2 17,3

2003 6,3 20,9

2004 7,6 25,1

2005 8,5 28,1

2006 11,4 37,9

2007 12,5 41,5

2008 13,6 45,1

2009 15 49,5

2010 15,8 52

Polscy internauci cechują się długim stażem i dużą intensywnością w korzystaniu z Internetu. 89%. korzysta z Internetu od co najmniej roku, 72% jest zaś online codziennie lub prawie codziennie. Wśród polskich internautów dominują osoby w wieku 15-24 lata (26% ogółu internautów), a także w wieku 25-34 (25%). Nadal najmniej liczebną grupę stanowią osoby najstarsze, powyżej 55. roku życia, które stanowią w 2010 roku zaledwie 9% internautów. Z danych porównawczych wynika także, że w ostatnim roku (w porównaniu z 2009 r.) nie zaszły znaczące zmiany w profilu internautów pod względem wieku. Udział poszczególnych przedziałów pozostał albo bez zmian, albo zmiana wynosi zaledwie 1%.

Łukasz Jaworski – Praca Magisterska 10

Page 11: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

4. Pozycjonowanie

Pozycjonowanie stron internetowych, jest to ciągły proces mający na celu ulokowanie danej witryny internetowej na najwyższej pozycji w SERP'ach (ang. Search Engine Result Page), czyli wynikach wyszukiwania wyszukiwarki internetowej na dane zapytanie - frazy kluczowe.Pozycjonowanie jest istotnym elementem promocji firmy w Internecie. Właśnie dzięki wyszukiwarkom internauci znajdują informację związane z ofertą danej firmy lub służą im do wyszukiwania produktu lub usługi.Co więcej badania przeprowadzone przez firmę Enquiro Search udowodniły, że im wyższa pozycja witryny w wynikach wyszukiwania tym większym cieszy się ona zainteresowaniem. Ilustracja z badanie eyetrackingowego, znajduje się na rysunku 2, na którym można łatwo zauważyć tak zwany złoty trójkąt Google, czyli spadek popularności pozycji w wynikach wyszukiwania wraz ze spadkiem zajmowanych miejsc.

Rysunek 2. Złoty trójkąt Google. [8]

Najcieplejsze miejsca na rysunku 2, to miejsca gdzie najczęściej spoglądają internauci. Krzyżyki oznaczają miejsca gdzie klikali. Bardzo ważnym jest, że odpowiednio dobrane frazy kluczowe, przyczyniają się do pozyskania ruchu z odpowiedniej grupy docelowej, a co za tym idzie generowania kwalifikowanych zapytań.

Wysokie pozycje w wynikach wyszukiwania przyczyniają się również do budowy świadomości marki. Wśród wielu Internautów panuje przekonanie, że zajmowanie wysokich pozycji w wynikach wyszukiwania jest tożsame z wysoką jakością usług czy produktów dostępnych w ofercie firmy.

Łukasz Jaworski – Praca Magisterska 11

Page 12: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

5. Czynniki wpływające na pozycje witryny

Czynników wpływających na pozycję danej witryny w wynikach wyszukiwania jest dużo, a wyszukiwarki nie podają oficjalnie, co pozytywnie wpływa na pozycję w obawie przed nadużyciami. Podają one jedynie dobre praktyki. W niniejszym podrozdziale, pokaże jak takie praktyki wykorzystać i jak zoptymalizować serwis internetowy pod dane frazy.

5. 1. Meta tagiMeta tagi, to dane o danych. Zaleca się, aby każda podstrona w ramach jednej witryny posiadała unikalne opisy, słowa kluczowe i tytuły. Istotne jest, iż każdy dokument w Internecie zawiera inną treść i w związku tym nie powinno być wiele podstron identycznie opisanych. Ułatwia to wyszukiwarce odpowiednie sklasyfikowanie danej strony.

5.1.1 Meta titleTreść tego meta tagu jest traktowana jako tytuł danej podstrony. Ta treść jest wyświetlana w górnym pasku przeglądarki internetowej. Bardzo często jest również wyświetlana jako tytuł strony w wynikach wyszukiwania w wyszukiwarkach internetowych. Zawartość niniejszego tagu powinna być krótka – maksymalna zalecana długość to 120 znaków. W tytule strony powinny pojawić się hasła kluczowe. Znacznik meta title jest jednym z najważniejszych elementów strony internetowej i jednym z najważniejszych czynników wpływających na pozycję strony internetowej w wynikach wyszukiwania. Pozycjonowanie trudniejszych fraz, bez umieszczeniach ich w meta tagu title jest praktycznie nie możliwe.

5.1.2. Meta keywords Meta keywords służy do podania robotowi wyszukiwarki internetowej tematyki witryny. W początkach istnienia wyszukiwarek internetowych (Yahoo, NetSprint) był to jeden z głównych czynników branych pod uwagę podczas tworzenia rankingu. W związku z bardzo łatwą manipulacją, roboty wyszukiwarek przestają analizować dane zawarte w meta keywords. Bardzo ważne, aby w tym tagu pojawiły się najważniejsze frazy kluczowe związane z daną podstroną, a w przypadku strony głównej wszystkie hasła na jakie jest promowana dana witryna.Ma to duże znaczenie nie tyle w wyszukiwarkach, co katalogach i agregatorach stron. Ułatwia to również, pózniejsze katalogowanie stron w odpowiednich kategoriach, powiązanych tematycznie ze stroną.

5.1.3. Meta descriptionBardzo często informację podane w tym meta tagu, wyświetlają się na stronach wyników wyszukiwania jako opisy danej strony. Z badań wynika że słowa kluczowe zawarte w tym tagu nie mają bezpośredniego wpływu na pozycję strony w rankingu. Mają natomiast kluczowe znaczenie w podnoszeniu CTR (ang. Click True Rate, współczynnik klikalności) danego linku, a co za tym idzie, liczbę odwiedzin i nieznaczne podniesienie pozycji. Opis witryny umieszczony w tym polu powinien składać się z jednego lub maksymalnie dwóch zdań.

5.2. Znaczniki title Znacznik title jest ściśle związany z linkami pojawiającymi się na stronie. Podobnie jak w przypadku znacznika ALT (dokładny opis w podrozdziale 5.6) użytkownicy witryny są w stanie zobaczyć tekst umieszczony wewnątrz TITLE tylko wtedy, gdy najadą kursorem myszki na konkretne hiperłącze. Najlepszym rozwiązaniem jest, aby zawartość title była identyczna jak treść linka. Jest to dobre

Łukasz Jaworski – Praca Magisterska 12

Page 13: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

rozwiązanie szczególnie w przypadku systemów CMS (ang. Content Management System, system zarządzania treścią), gdzie zazwyczaj nie ma możliwości ingerowania w ten element konstrukcji witryny. Jeśli jednak istnieje możliwość ręcznego przypisywania do danego hiperłącza zawartości znacznika title to powinna ona zawierać w sobie jedną z fraz kluczowych, na które promowany jest serwis i która w największym stopniu pasuje do treści linkowanej podstrony.

5.3. NagłówkiNagłówki - dzięki poprawnemu wykorzystaniu znaczników H (ang. headlings, nagłówki) zostaje zachowana naturalna struktura dokumentu. Takie nagłówki umieszczone w kodzie HTML strony, można porównać do nagłówków w prasie drukowanej. Tak jak w gazecie istnieje główny nagłówek, czyli tytuł artykułu, a potem nagłówki poszczególnych akapitów, tak samo na stronie internetowej powinny istnieć nagłówki poszczególnych elementów. Większość wyszukiwarek, opierających się na analizie treści, zwraca bardzo dużą uwagę na treść zawartą w takich nagłówkach. Nagłówki są stopniowane od 1 do 6. Im niższy numer, tym nagłówek jest wyższego stopnia. Zaleca się aby w treści nagłówków zawarte były najważniejsze dla portalu frazy kluczowe. Najważniejszym jednak jest, aby treści były starannie przygotowywane zawsze pod użytkowników, a nie pod roboty wyszukiwarek. Należy unikać wodotrysków, dzwięków na stronie odpalanych mimowolnie i przesadnych animacji. Zbyt częste wykorzystywanie opisywanych w niniejszym rozdziale elementów może negatywnie wpłynąć na odbiorów tekstu przez czytelników witryny. Dodatkowo roboty wyszukiwarek potrafią wykrywać próby manipulacji wynikami wyszukiwania i surowo za to karać.

5.4. Wyróżnienia tekstuFrazy, na którą prowadzone jest pozycjonowanie serwisu internetowego, powinny pojawiać się zarówno na stronie głównej jak i na pozostałych podstronach serwisu. Wszystkie materiały umieszczane na łamach witryny powinny być przygotowywane dla ludzi, a nie robotów i w związku tym nie ma dokładnie określonej częstotliwości z jaką mają występować frazy kluczowe. Wszystko uzależnione jest od rodzaju, długości i formy treści na stronie. Frazy powinny kilkukrotnie pojawiać się na stronie głównej i podstronach. Jeśli na stronie nie występuje w ogóle dana fraza oznacza to, że powiązanie miedzy nią a strona jest bardzo małe lub żadne. Pozycjonowanie takiej strony na daną frazę jest praktycznie nie możliwe. Taka modyfikacja algorytmu została wprowadzona w momencie gdy, strony czołowych polityków różnych państw na świecie m. in. George W. Bush'a, Aleksandra Kwaśniewskiego czy Andrzeja Leppera, pojawiały się na pierwszych miejscach w wynikach wyszukiwania na nie cenzuralne słowa. Był to jeden z pierwszych 'ataków' na wyszukiwarki i wyniki zapytania. Nazwany został Google Bomb. Jeśli hasło pojawia się byt często to treści przestają być zrozumiałe dla zwykłego użytkownika i roboty wyszukiwarek mogą doszukać się spamu (spam – niechciana, nie potrzebna wiadomość elektroniczna).Optymalnym rozwiązaniem jest jeśli pożądana fraza kluczowa pojawia się w nagłówku danego tekstu (np. w nazwie artykułu, w tagu H1, H2, H3), na początku tekstu, w środku oraz pod koniec. Roboty wyszukiwarek doskonalą algorytmy rozpoznawania odmian danego słowo (np. gra, gry, grami), ale mimo wszystko zaleca się stosowanie takiej formy hasła w jakiej prowadzona jest promocja.

5.5. Oryginalne treściUmieszczanie na stronach serwisu skopiowanej treści z innych serwisów internetowych może negatywnie wpłynąć na zaufanie witryny i znacznie utrudnić jej pozycjonowanie, a w przypadku

Łukasz Jaworski – Praca Magisterska 13

Page 14: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

dużej ilości kopiowanej treści może je całkowicie uniemożliwić. Treści powinny być unikatowe, oryginalne i przygotowane zgodnie z tematyką witryny. Nie powinny być oderwane od kontekstu i być bez sensu. Nie powinny zawierać błędów ortograficznych. Oczywiście może zdarzyć się konieczność przekopiowania informacji – jeśli takich tekstów jest mniej niż kilka procent w ramach całego portalu to są traktowane neutralnie czyli nie przynoszą ani korzyści w pozycjonowaniu, ani nie powodują uznania strony za SPAM.

5.6. Teksty alternatywneZe względu na to, że wyszukiwarki internetowe nie potrafią dokładnie zinterpretować zawartości grafiki (np. pliki PNG), podczas osadzania grafiki na stronie należy dodatkowo opisać ją za pomocą znacznika ALT. To właśnie dzięki temu znacznikowi, roboty wyszukiwarki wiedzą co dana ilustracja przedstawia. Podawanie opisu w znaczniku ALT, ułatwia również osobom niepełnosprawnym korzystanie z Internetu. Znaczniki ALT są czytane przez czytniki, dzięki czemu osoby niewidome maja możliwość słuchania treści z Internetu. Istotne jest, aby tekst alternatywny zawierał w sobie frazę kluczową oraz jednocześnie jasno i dosadnie opisywał zawartość obrazka. Długość opisu nie powinna przekraczać 90 znaków. Za pomocą dobrze opisanych grafik, możemy wpłynąć na pozycję swojej strony na w wynikach wyszukiwania wyszukiwarek graficznych.

5.7. Adres witrynyDobranie odpowiedniego adresu strony, może pomóc w pózniejszym pozycjonowaniu, aczkolwiek nie jest kluczowym parametrem. Optymalnym rozwiązaniem jest, aby domena zawierała jedno z pozycjonowanych słów kluczowych. Nie zawsze jest to możliwe do wykonania, ponieważ firmy przeważnie chcą, żeby nazwy domen były takie jak nazwy firm. Jest to dobra praktyka. Nie dopuszczalnym byłoby, aby domeny oceniane były tylko po nazwie domeny. Często liczba pozycjonowanych fraz jest tak duża, że niemożliwe jest wybranie najlepszego. W związku z tym, czynnik ten jest zazwyczaj pomijany. Zaleca się, aby poszczególne hasła pojawiające się w domenie były oddzielone znakiem „-„. Przeprowadzone testy pokazują, że roboty wyszukiwarek lepiej radzą sobie z rozpoznaniem kolejnych fraz po oddzieleniu ich myślnikiem, niż jakimkolwiek innym separatorem (np.: _, , czy .).

Odpowiednio dobrany adres strony ma szczególnie duże znaczenie w przypadku konkurencyjnych branż, czyli takich gdzie bardzo duża liczba witryn konkuruje między sobą o najwyższe pozycje w wynikach wyszukiwania. Jednym z haseł należących do konkurencyjnych branż jest np. „opony” – na rysunku 3 zaprezentowano fragment wyników wyszukiwania zwracanych na to hasło, gdzie wyraznie widać promowane hasło w nazwach domen.

Łukasz Jaworski – Praca Magisterska 14

Page 15: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 3. Wyniki wyszukiwania dla zapytania „opony”.

Warto również mieć na względzie, że adres witryny ma ogromny wpływ na jej pózniejsze postrzeganie portalu przez użytkowników. Ze względu na to powinien być wizerunkowo dostateczny, a także łatwy do zapamiętania.

5.8. Adresacja podstronPoprawna adresacja podstron witryny jest jednym z kluczowych czynników decydującym o możliwościach pozycjonowania. Optymalnym rozwiązaniem jest, gdy adres każdej z podstron jest ściśle związany z jej zawartością. Adresacja powinna zachowywać drzewiastą strukturę i nie zawierać żadnych znaków specjalnych (np. ?, !, ;). Podobnie jak w przypadku domeny do oddzielenia fraz kluczowych należy wykorzystywać znaki „-„.

Poniżej przedstawiono przykłady adresacji poprawnej i nie poprawnej.

Adresacja poprawna:http://ciufcia.pl/gry-i-zabawy-dla-dzieci

Adresacja niepoprawna:http://ciufcia.pl/index.php?id=12&h=1234

Jeżeli witryna, np.: www.ciufcia.pl promowana jest na hasło „zabawy edukacyjne”, to przynajmniej jedna z podstron powinna posiadać adres www.ciufcia.pl/zabawy-edukacyjne. W przypadku, gdy witryna oparta jest o system CMS, czyli aplikację pozwalającą na łatwą aktualizację i rozbudowę portalu przez redakcyjny personel nietechniczny, to jest konieczne wdrożenie mechanizmu przyjaznych linków.

5.9. Wiek strony oraz wiek domenyWiek strony i wiek domeny stanowią bardzo istotny czynnik dla wyszukiwarek internetowych

Łukasz Jaworski – Praca Magisterska 15

Page 16: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

zwłaszcza dla wyszukiwarki Google. Jeżeli dana domena bądz strona internetowa istnieją długi czas w Internecie, to publikowane są na niej oryginalne i wartościowe treści oraz mniejsze jest prawdopodobieństwo, że jest to strona tworzona na potrzeby manipulacji wynikami wyszukiwania. Google dodatkowo punktuje takie domeny i ustawia wyżej w rankingu pozycji. Należy odróżnić wiek domeny od wieku strony. Wiek domeny mówi o tym, jak długo dana domena istnieje bez względu na to, jaką przedstawiała treść i czy w ogóle była wykorzystywana. Wiek strony natomiast, jest ściśle związany z treścią publikowaną na danej domenie. Przykładowo początkowo pod domeną xxx.pl mogła znajdować się witryna firmy z Warszawy zajmująca się tworzeniem stron internetowych, ale pózniej mogła zostać przerobiona na serwis informacyjny branży motoryzacyjnej. Dla wyszukiwarek wiek domeny będzie liczony od momentu zakupu domeny przez firmę, a aktualny wiek strony od chwili przerobienia wcześniejszego serwisu na portal motoryzacyjny.Narzędziem pozwalającym na przeanalizowanie wieku domeny jest www.webconfs.com/domain-age.php – na rysunku 4 został zaprezentowany wynik działania mechanizmu dla domen ciufcia.pl, onet.pl oraz gazeta.pl. Widać, że domena gazeta.pl jest najstarszą spośród porównywanych domen.

Rysunek 4. Wiek domeny wg www.webconfs.com.

*Domain Name – nazwa domeny*Age – wiek domeny

5.10. Page RankAlgorytm został opracowany przez założycieli firmy Google podczas ich studiów w Stanford University w 1998 roku. Każdy dokument w sieci posiada pewien wskaznik popularności. Im wyższy jest wskaznik, tym lepiej dla strony. Na początku istnienia wyszukiwarki, wskaznik ten miał bardzo duże znaczenie, jednak z czasem wyszukiwarka Google, która stworzyła tą technologię zrezygnowała z analizy tego wskaznika wprost. Powodem są nadużycia. Okazało się, że algorytm również jest podatny na nadużycia, a manipulacja nim powoduje pogorszenie jakości wyników wyszukiwania. Każda ze stron internetowych może oddać głos na inną stronę poprzez umieszczenia na swoich łamach linka do niej. Przykładowo, jeśli właściciel witryny A umieści na swojej stronie link do witryny B, to tak jakby stwierdzał, że jest ona wartościowa - poleca ją Internautom, odwiedzającym jego stronę. Tym samym, jeśli dużo witryn stwierdza w taki sam sposób oznacza to, że witryna musi być rzeczywiście wartościowa i powinna być umieszczana w wynikach wyszukiwania. Istotne również jest, że link pochodzący z witryny o większym współczynniku PageRank jest więcej wart, niż link pochodzący z mniej popularnej strony. Aktualnie PageRank odgrywa już bardzo małą rolę w wyznaczaniu pozycji witryny. Główną przyczyną takiego stanu rzeczy była łatwa możliwość manipulacji. Wystarczyło umieszczać sporo linków w wielu serwisach internetowych z wysokim współczynnikiem PageRank, aby ten współczynnik na stronie docelowej szybko urósł.[9]

Łukasz Jaworski – Praca Magisterska 16

Page 17: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Aktualnie ilość linków z innych stron internetowych prowadzących do promowanej witryny ma bardzo duże znaczenie, ale tylko w przypadku, gdy pochodzą z poprawnych merytorycznie i dobrych jakościowo witryn powiązanych tematycznie.Schemat działania algorytmu PageRank został przedstawiony na rysunku 5.

Rysunek 5. Schemat działania algorytmu PageRank. [10]

Schemat algorytmu jest tylko wersją wzorcową. Szczegóły algorytmu nie zostały upublicznione. Algorytm ten można interpretować jako znajdowanie stanu ustalonego w łańcuchu Markowa, albo jako problem diagonalizacji macierzy. Nietrywialną kwestią techniczną pozostaje implementacja tego algorytmu, aby nadawał się do przetwarzania danych opisujących sieć WWW. Wielkość macierzy wymaga specjalistycznych algorytmów rozproszonych i równoległych uruchamianych jednocześnie na wielu (tysiącach) komputerów.Załóżmy, że w internecie istnieją tylko 4 strony internetowe i moją one wyjściowio PageRank równy 1.0:

• aaa.pl• ddd.com• ggg.net• jjj.org

Ponadto:• strona abc.pl linkuje do stron ddd.com i jjj.org• strona ddd.com linkuje do aaa.pl• strona ggg.net linkuje do ddd.com i aaa.pl• strona jjj.org linkuje do ggg.net

Łukasz Jaworski – Praca Magisterska 17

Page 18: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

PageRank obliczony według algorytmu przedstawia się następująco:• aaa.pl - 1,31• ddd.com - 0,89• ggg.net - 0,89• jjj.org – 0,46

Jeśli w internecie pojawi się nowa strona - mmm.pl i będą do niej linkować wszystkie istniejące strony, PageRank dla tych stron wyniesie:

• aaa.pl - 0,66• ddd.com - 0,62• ggg.net - 0,22• jjj.org - 0,40• mmm.pl - 1,44

5.11. Linki z innych stronLinki prowadzące do strony, mają największy wpływ na miejsce, jakie strona zajmuje w rankingu. Jednak, z upływem czasu, silnik Google lekceważy linki pochodzące ze słabego jakościowo i nietematycznego otoczenia. Jako odpowiednie uznaje się te, które są powiązane z pozycjonowaną stroną oraz nie zostały stworzone tylko na potrzeby pozycjonowania (czyli nie są tak zwanym zapleczem pozycjonerskim). Ważne jest, aby linki w swoich nazwach zawierały słowo kluczowe, na które dany portal jest pozycjonowany. Przykładowy linki do pozycjonowania www.ciufcia.pl na frazę "gry dla dzieci" powinien wyglądać następująco.

<a href="http://ciufcia.pl" title="gry dla dzieci">gry dla dzieci</a>

Aby wzmocnić dodatkowo siłę linku, należy dodać atrybut title do tagu.Bardzo ważne podczas linkowania jest ustalenie, jak dokładnie wygląda docelowa strona. Czy jest to strona z przedrostkiem "www", czy bez. Dla robotów wyszukiwarek, domena ciufcia.pl i www. ciufcia.pl - to dwie różne domeny. Poprawna konfiguracja serwera i strony wymaga, aby została zdefiniowana jedna domena główna, np.: ciufcia.pl – bez przedrostka www. Po wybraniu podstawowej domeny (ciufcia.pl), należy ustawić przekierowanie z domen pozostałych(www.ciufcia.pl, ww.ciufcia.pl), za pomocą przekierowania 301, tzw. przekierowanie permanentne. Przekierowanie 301 to przekierowanie stałe, czyli takie, które przekieruje na nowy adres zarówno użytkowników, jak i roboty wyszukiwarek. Jest ono wyjątkowo przydatne w przypadku zmiany adresu strony, a w praktyce wygląda tak, że wpisując stary adres strony przeglądarka automatycznie wczytuje nowy. Wyszukiwarki zaś podmieniają stary adres widoczny w wynikach wyszukiwania na nowy.

5.12. Linkowanie wewnętrzne Linkowanie wewnętrzne witryny jest bardzo istotnym czynnikiem wpływającym na poprawne i całościowe zaindeksowanie się wszystkich podstron serwisu w wyszukiwarkach. Roboty wyszukiwarek internetowych przemieszczają się podążając za hiperłączami. Do każdej podstrony serwisu, powinien prowadzić co najmniej jeden link. Optymalnym rozwiązaniem jest, gdy do dowolnego dokumentu w ramach witryny uda się dotrzeć maksymalnie poprzez trzy kliknięcia. Odpowiednie przygotowanie systemu nawigacji, a zwłaszcza menu umożliwia sprawne przemieszczanie się robota wewnątrz strony.

Łukasz Jaworski – Praca Magisterska 18

Page 19: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Często jednak dla większych portalach internetowych, gdzie liczba podstron sięga kilkudziesięciu tysięcy podstron menu nie wystarczy. W takich przypadkach należy wykorzystać możliwości jakie dają systemy CMS, na przykład system tagów i podobnych artykułów. Mechanizm taki wyświetla na każdej podstronie bloczek z listą haseł (tagów) występujących w portalu, a po kliknięciu w jedno z haseł wyświetla podstrony pasujące do niego. Istnieje również możliwość zaprogramowania takiego mechanizmu, aby pod każdą treścią w portalu pojawiał się bloczek „Zobacz również” z linkami prowadzącymi do stron o takich samych tagach, jak ta, na której znajduje się użytkownik. Jest to bardzo dobre rozwiązanie, aby zatrzymać użytkownika w serwisie na dłuższy czas. Użytkownika, którego zainteresował dany artykuł, może również zainteresować inny artykuł z tej samej tematyki. Przykładem wykorzystania tagów, jako bloczka z chmurą haseł znajduje się na rysunku 6. [11]

Rysunek 6. Chmura tagów serwisu interaktywnie.com

Opisane powyżej czynniki, stanowią kluczowe znaczenie dla pozycji strony w wynikach wyszukiwania. Jednakże, wysoka pozycja na błędnie dobrane słowa kluczowe, jest jak stawianie ogromnego bilboardu na pustyni. Użytkownikowi nie przyniesie żadnej korzyści wysoka pozycja na frazę, której nikt nie szuka. Dlatego kluczowym elementem pozycjonowania i promocji stron jest analiza słów kluczowych. W kolejnym rozdziale opiszę czym jest analiza i przedstawię dostępne narzędzia.

Łukasz Jaworski – Praca Magisterska 19

Page 20: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

6. Analiza słów kluczowych

Pozycjonowanie to proces, w którym efekty pracy widoczne są dopiero po kilku tygodniach. Dopiero po kolejnych kilku, osoba odpowiedzialna za marketing w danej firmie jest w stanie stwierdzić czy frazy kluczowe opracowane do pozycjonowania, zostały wybrane prawidłowo, tzn. czy przynoszą zamierzone efekty. Efektu to sprawa indywidualna, dlatego należy wyznaczyć sobie własne kryteria, np: ilość sprzedanych towarów, usług, ilość odwiedzających serwis czy czas spędzony na stronie.Najprostszym a zarazem najskuteczniejszym sposobem na to, jest skorzystanie z systemów statystycznych. Najlepszym i darmowym w tym momencie narzędziem jest Google Analytics, firmy Google Inc. Narzędzie to jest ogólnodostępne i całkowicie darmowe dla serwisów, których oglądalność nie przekracza 2 mln UU - Unikalnych Użytkowników miesięcznie. Narzędzie to posiada ogromne możliwości statystyczne, posiada możliwość tworzenia szczegółowych raportów, mierzenia konwersji i celów, co jest ogromnie przydatne przy analizie skuteczności ruchu internetowego.Google Analytics to rozwiązanie dla firm w zakresie analityki sieciowej zapewniające dokładny wgląd w ruch w witrynie oraz skuteczność działań marketingowych. [7]

Dzięki temu narzędziu możemy dowiedzieć się:• ilu użytkowników ma nasza strona,• w jaki sposób dowiedzieli się o naszej stronie,• co ich najbardziej interesuje na witrynie ,• które kanały zdobywania użytkowników dają naszej stronie największe korzyści i itp.

Informacje takie pozwalają:

• ocenić czy nasza oferta jest dobrze skonstruowana (np. jeżeli mamy dużo odwiedzin, a mało zapytań znaczy to, że coś jest nie tak z samym przedstawieniem oferty),

• stwierdzić, skąd trafiają do nas wartościowi użytkownicy, którzy są zainteresowani naszymi produktami i usługami, spędzają dużo czasu na naszej stronie,

• określić potencjał poszczególnych kanałów zdobywania użytkowników i potencjalnych klientów.

Jedną z podstawowych funkcjonalności Google Analytics jest informacja o ilościach i zródle wejść. Jednakże, taka analiza sprawdza się tylko w przypadku, gdy witryna znajduje się na wysokich pozycjach dla wybranych fraz kluczowych. Jak zostało to zaprezentowane na początku tej pracy, im pozycja jest wyższa, tym większa powinna być ilość wejść z wyszukiwarek internetowych.

6.1. Google Analytics - Źródła odwiedzinŹródła odwiedzin – ta kategoria jest bardzo ważna dla osób profesjonalnie podchodzących do promocji swojej strony w sieci. Przede wszystkim uzyskamy tu informacje, jaka część ruchu na stronie generowana jest przez ogólnodostępne katalogi przeglądarek internetowych, odnośniki na pozostałych stronach, płatne reklamy, a ilu użytkowników uzyskuje do strony dostęp bezpośredni. Ta ostatnia informacja, jakkolwiek z punktu widzenia dalszych analiz niezbyt istotna, może świadczyć także o dużym przywiązaniu określonej grupy odbiorców do serwisu – znają oni jej adres na pamięć lub na przykład dopisali go do Ulubionych. Dla nas jednak najważniejszym sposobem

Łukasz Jaworski – Praca Magisterska 20

Page 21: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

kierowania użytkowników do naszej witryny jest ruch z wyszukiwarek internetowych i stron odsyłających.Google Analytics zbiera w jednym raporcie dane dotyczące adresu witryny odsyłającej lub wyszukiwarki oraz parametry odwiedzin, takie jak ich średni czas, procent nowych użytkowników oraz współczynnik odrzuceń. W ten sposób możemy ocenić, czy słowa kluczowe, przy użyciu których naszą stronę można odnalezć w Internecie, lub też charakter stron odsyłających oraz opis linków powodują, iż do naszej witryny trafia grupa osób rzeczywiście zainteresowana prezentowanymi w niej treściami. Skuteczność doboru słów kluczowych jest jeszcze lepiej wizualizowana dzięki danym zawartym w zakładce słowa kluczowe w systemie Google Analytics. Świadomość, jakie frazy wpisane w wyszukiwarce skutkują odesłaniem do naszej strony, ma oczywiście kluczowe znaczenie przy jej pozycjonowaniu. Gdy korzystamy także z innych typów reklamy internetowej, przy odrobinie wysiłku możemy dostarczyć Google Analytics kolejnej porcji danych do analizy. Wystarczy, że do odnośników do naszego serwisu znajdujących się w banerach czy też np. w promocyjnej poczcie elektronicznej dodamy tagi określające nazwę, zródło i medium kampanii oraz inne istotne dla nas czynniki (np. hasło – słowo kluczowe). Dla łatwiejszego sporządzenia danego odnośnika możemy skorzystać z narzędzia Link Builder. Jest to formularz do budowania adresów URL, który Google udostępnia pod adresem: [1] Po odpowiednim przygotowaniu linków reklamowych będziemy mogli porównać skuteczność poszczególnych działań marketingowych, a także zestawić wyniki w wersji płatnych reklam „zewnętrznych” z tymi uzyskiwanymi dzięki usłudze AdWords (Google AdWords – system reklamowy Google pozwalający na wyświetlanie linków sponsorowanych w wynikach wyszukiwania wyszukiwarki Google i na stronach współpracujących). Jeżeli strona internetowa pojawia się na szczycie wyników wyszukiwania, a mimo to liczba wejść z danej frazy jest niewielka, może to oznaczać słabe zainteresowanie, a tym samym możliwy brak zwrotu z inwestycji.Na rysunku 7 zaprezentowane są statystyki wejść z poszczególnych fraz kluczowych dla serwisu ciufcia.pl. W panelu Google Analytics mamy możliwość nie tylko analizy słów kluczowych po jakich użytkownicy trafili na nasz serwis, ale również ilości stron odwiedzanych podczas każdej z wizyt, średniego czasu spędzonego na stronie przez statystycznego użytkownika, procentu nowych odwiedzin czy współczynnika odrzuceń, czyli procentu internautów opuszczających nasz serwis po odsłonie tylko jednej podstrony. Na rysunku widać, że topowe frazy przynoszą duży ruch, charakteryzując się jednocześnie bardzo długim czasem na stronie i niskim współczynnikiem odrzuceń. Dla przykładu, średni czas użytkownika, odwiedzającego serwis onet.pl wynosi ok. 2,5 minuty [2]. Istotnym faktem jest, że znaczna część fraz cieszy się zainteresowaniem tylko w pewnych okresach w roku – oznacza to, że są sezonowe. Nasuwa się więc pytanie, czy należy interesować się takimi frazami i czy pozycjonowanie na nie będzie opłacalne. Może jednak okazać się, że ilość zapytań generowanych przez te frazy, mimo iż ma to miejsce tylko kilka tygodni w roku, jest na tyle duża, że szybko możemy liczyć na zwrot z inwestycji.[12]

Łukasz Jaworski – Praca Magisterska 21

Page 22: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 7. Fragment panelu systemu Google Analytics przedstawiający listę fraz kluczowych, po których internauci odwiedzają portal ciufcia.pl w czerwcu 2011 r.

Łukasz Jaworski – Praca Magisterska 22

Page 23: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

6.2 Google TrendsGoogle Trends jest narzędziem firmy Google Inc. udostępniającym statystyki wykorzystania wyszukiwarki internetowej Google. Dzięki temu narzędziu możemy zbadać zainteresowanie internautów daną frazą na przestrzeni lat. Ponadto narzędzie udostępnia informację na temat ilości, pochodzenia, zależności od czasu i głównych regionów zapytań kierowanych do wyszukiwarki Google. Usługa pozwala m.in. porównanie częstości różnych zapytań na wykresie. Ranking można sortować także według języka i państwa, z którego zapytania pochodzą. Dane są skalowane do średniej ilości wyszukiwań dla danego słowa kluczowego (określonego poziomem 1.0) podczas wybranego okresu czasowego. Na przykład, jeżeli wpiszemy słowo kluczowe opony, wykres pokaże trend wyszukiwań od stycznia 2004 do czasu obecnego. Jeżeli wybierzemy pokazywanie trendu tego słowa kluczowego dla określonego czasu, np. 2006 rok, dane wówczas będą pokazywane w odniesieniu do średniej liczby wyszukiwań słowa kluczowego w 2006 roku. W tej sytuacji dana 2.0 w sierpniu 2006 będzie oznaczała, że w sierpniu liczba zapytań była 2.0 większa od średniej liczby wyszukiwań z 2006 roku.Na rysunku 8 przedstawiłem wyniki popularności wyszukiwań fraz "samochód" i "opony", zmierzone za pomocą narzędzia Google Trends. Panel nie umożliwia zmierzenie faktycznej liczby zapytań o daną frazę. Daje jednak możliwość analizy, o ile częściej użytkownicy wyszukują poszczególne frazy. Na rysunku 8 widzimy wyrazną sezonowość dla słowa kluczowego opony oraz stałe i utrzymujące się na podobnym poziomie, zainteresowanie frazą samochód.[13]

Rysunek 8. Fragment wyników aplikacji Google Trends przedstawiający częstotliwość wyszukiwania fraz „samochód” oraz „opony”.

Search Volume index – Częstotliwość wyszukiwania w wyszukiwarce GooleNews reference volume – Częstotliwość wyszukiwania w wyszukiwarce Google News

6.3 Google InsightCieszące się dużą popularnością Google Trends doczekało się swojego następcy, jakim jest Google Insight. Narzędzie zostało rozbudowane o wiele przydatnych opcji, takich jak wizualna reprezentacja danych, rozróżnienie regionów, z których pochodzą zapytania czy rozdzielenie danych pochodzących z różnych wyszukiwarek: grafiki, wiadomości czy miejsc. Narzędzie Statystyki wyszukiwarki Google analizuje część wyszukiwań w Google przeprowadzonych na całym świecie za

Łukasz Jaworski – Praca Magisterska 23

Page 24: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

pośrednictwem wszystkich domen Google, aby policzyć zapytania o wprowadzone hasła w stosunku do ogólnej liczby wyszukiwań w Google w określonym czasie. Narzędzie przedstawia wykres ilustrujący liczbę operacji wyszukiwania (rysunek 9), wskazujący zainteresowanie danymi hasłami w ujęciu czasowym (wg czasu Greenwich), naniesione na skalę od 0 do 100. Sumy całkowite wyświetlane są obok pasków przy wyszukiwanych hasłach.

Rysunek 9. Wykres ilustrujący liczbę operacji wyszukiwania.

Na rysunku 10 znajduje się kartogram przedstawiający wskaznik liczby operacji wyszukiwania w poszczególnych regionach, miastach i obszarach miejskich świata. W celu przedstawienia popularności wyszukiwanego hasła w poszczególnych regionach, zastosowano mapę. Przesuwając kursor na dowolny region, mamy możliwość wyświetlenia większej ilości szczegółów. Po kliknięciu w region, filtr lokalizacji zostanie zastosowany.

Rysunek 10. Regionalne zainteresowanie daną frazą.

Istnieje również możliwość, aby sprawdzić, jak zmieniała się popularność danego wyszukiwanego hasła w czasie w różnych regionach. Na rysunku 11, przedstawiłem listę najpopularniejszych wyszukiwań i najważniejszych rosnących wyszukiwań. Bardzo przydatną opcją są najpopularniejsze wyszukiwania. Są to wyszukiwane hasła

Łukasz Jaworski – Praca Magisterska 24

Page 25: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

cieszące się największym zainteresowaniem. Hasła te związane są z wprowadzonym hasłem. Jeśli żadne wyszukiwane hasło nie zostało wprowadzone, najpopularniejsze wyszukiwania odnoszą się do wybranej kategorii lub kraju/terytorium [8].Rysunek 11 ilustruje najpopularniejsze zapytania powiązane z wybrany filtrem (czas, lokalizacja, hasło, itp.).

Rysunek 11. Najpopularniejsze zapytania powiązane z wybranym filtrem.

Wyszukiwania o rosnącej popularności to wyszukiwania, dla których zarejestrowano znaczny wzrost w danym okresie w porównaniu z okresem poprzedzającym. Rysunek 12 przedstawia takie wyszukania dla określonego filtra.

Rysunek 12. Wyszukiwania o rosnącej popularności.

Łukasz Jaworski – Praca Magisterska 25

Page 26: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

*Przebicie – liczba większa od 5000%W przypadku analizowania fraz sezonowych, koniecznym jest badanie dłuższego okresu czasu - na przykład 12 miesięcy. Na rysunku 13 został przedstawiony widok z wykresem ilustrującym ilość wejść dla konkretnej frazy kluczowej.

Rysunek 13. Fragment panelu systemu Google Analytics przedstawiający wzrost ilości wejść z wyszukiwarek przy wyszukiwania konkretnej frazy w okresie 21 miesięcy.

Jedną z podstawowych miar stanowiących o poprawnym doborze danej frazy kluczowej jest również średni czas użytkownika spędzony na stronie. Dłuższy czas, świadczy o sporym zainteresowaniu tematyką, co z kolei wskazuje na dobre powiązanie frazy ze stroną. Krótki średni czas spędzany w witrynie świadczy o małym powiązaniu pomiędzy hasłem kluczowym, a zawartością strony. Na rysunku 14 widzimy szczegółowe informacje dot. przykładowej frazy w serwisie ciufcia.pl. Widzimy na nim, że statystyczny użytkownik przychodzący na stronę z tej frazy spędza na portalu średnio 2 minuty i 44 sekundy, generując 3,05 odsłony podczas jednej wizyty i współczynnik odrzuceń na poziomie 31%. Są to kluczowe dane, które należy analizować podczas pozycjonowania stron. [14]

Rysunek 14. Fragment panelu systemu Google Analytics przedstawiający szczegółowe dane na temat wejść z danej frazy kluczowej.

Wskaznik odrzuceń powinien być jak najmniejszy, a ilość odwiedzonych podstron jak największa.Jednakże, są od tego wyjątki. Nie zawsze wysoki współczynnik odrzuceń świadczy o braku zainteresowania witryną. W przypadku stron stricte informacyjnych, gdzie wszystkie niezbędne

Łukasz Jaworski – Praca Magisterska 26

Page 27: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

informacje, dostępne są z poziomu danej podstrony, np. formularz kontaktowy, adres, nr telefonu. Wysoki współczynnik odrzuceń jest czymś naturalnym. Odpowiednia konfiguracja statystyk i zastosowanie asynchronicznego kodu śledzenia Google Analytics pozwala na pomiar czasu odwiedzin dla jednoodsłonowych wizyt.Podczas konfiguracji systemu Google Analytics warto zdefiniować cele, które mają być mierzone. Oznacza to, że istnieje możliwość określenia ścieżek, po których przejściu realizowany jest pewien cel – może to być na przykład przejście ze strony głównej do koszyka (w sklepie internetowym) lub wysłanie formularza kontaktowego. System statystyczny potrafi wyświetlić, dzięki odwiedzinom z jakich słów kluczowych, realizowane są cele wskazane podczas konfiguracji.

6.4. Cele konwersjiRaporty zawarte w tej grupie należą do najbardziej przydatnych dla osób prowadzących działalność handlową za pośrednictwem serwisu internetowego, wymagają jednak od nich także większego zaangażowania na wstępnym etapie budowania systemu statystyk. Cele są rozpatrywane odrębnie dla sklepów internetowych i pozostałych stron – np. wizytówek firm działających w „świecie rzeczywistym”. W obydwu jednak wypadkach oznaczają mniej więcej to samo – punkt dojścia użytkownika witryny, który dla jej właściciela jest zródłem określonego przychodu. Zachowanie odbiorcy, poprzez które z biernego czytelnika treści staje się on świadomym klientem, jest określane mianem „konwersji na cel”. Celem może więc być zakup określonego produktu w działalności e-commerce (ang. handel elektroniczny) lub też po prostu skorzystanie ze strony z danymi kontaktowymi. Na rysunku 15 przedstawiony został przykład analizy konwersji na cel dla danego słowa kluczowego z serwisu dydaktycznego ciufcia.pl

Rysunek 15. Fragment panelu systemu Google Analytics przedstawiający informacje odnośnie konwersji na cel dla danego słowa kluczowego.

Z punktu widzenia właściciela witryny internetowej im częściej jest realizowany dany cel, tym lepiej. Rozważając korelacje pomiędzy ilością odwiedzin pochodzących z danej frazy kluczowej a

Łukasz Jaworski – Praca Magisterska 27

Page 28: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

ilością celów realizowanych dzięki tym odwiedzinom należy zwrócić uwagę na koszt promocji danej frazy. Jeżeli zwrot z inwestycji (ROI, ang. Request Out Investment, zwrot z inwestycji) jest należytym i na zadowalającym poziomie kontynuacja kampanii promocyjnej jest uzasadniona. Jeśli nawet pomimo dużej ilości zrealizowanych celów nie zwraca się poniesiony koszt należy rozważyć, czy dalsza promocja na takich warunkach jest sensowna. System Google Analytics, posiada również panel przeznaczony do analizy e-commerce. Na rysunku 16 pokazano widok danych, dostarczanych dla konkretnej frazy. Zakładka e-commerce dostarcza przede wszystkim zbiór przeliczonych danych na podstawie skonfigurowanego celu. Widzimy na niej przychód, średnią wartość transakcji i liczbę transakcji.[15]

Rysunek 16. Fragment panelu systemu Google Analytics przedstawiający informacje związane z e-commerce dla danego słowa kluczowego.

Dzięki zintegrowaniu systemu e-commerce osoba analizująca statystyki, jest w stanie bardzo precyzyjnie określić zwrot z inwestycji - ROI. Gdy wartość wydatków przekracza przychody, bądz gdy zyski utrzymują się na minimalnym poziomie warto zastanowić się nad wyborem innego hasła kluczowego. Jak widać, analiza fraz kluczowych, jest bardzo istotna. Ich nieodpowiedni dobór może prowadzić do szybkiego wykorzystania środków przeznaczonych na promocję, bez jakichkolwiek zysków. Wszystkie powyższe metody bardzo mocno wspierają marketera, jednak to do niego należy ostateczna decyzja. Musi ona również opierać się o indywidualne czynniki związane z daną witryną i jej modelem biznesowym. Dla jednego bowiem, kluczowym elementem będzie dokonanie zakupu w sklepie internetowym, dla innego czas spędzony na stronie przez użytkownika,a dla innego ilość odsłoniętych podstron czy napisanych postów na forum. Wszystko to zależne jest od celów założonych przez właściciela witryny internetowej.[16]

Łukasz Jaworski – Praca Magisterska 28

Page 29: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

7. Podsumowanie części teoretycznej

Podsumowując cześć teoretyczną możemy zauważyć 2 główne aspekty pozycjonowania stron. Pierwszym jest optymalizacja serwisów internetowych i dostosowanie ich pod roboty wyszukiwarek internetowych. Drugim jest linkowanie stron, czyli umieszczanie odnośników na tematycznych, dobrych jakościowo stronach. W części teoretycznej, opisane zostały najważniejsze czynniki wpływające na pozycje strony w wynikach wyszukiwarek internetowych, jak również narzędzia przydatne przy analizie ruchu. Do najważniejszych czynników należą:

• meta tagi• nagłówki na stronie• wyróżnianie tekstu• oryginalność treści• wiek strony• pagerank• linkowanie wewnętrzne oraz linki z innych stron

W sieci jest wiele rozproszonych narzędzi do analizowania każdego z tych parametrów z osobna. Brak jest natomiast jednego narzędzia, odpowiadającego za pomiar tych wszystkich parametrów naraz, zestawienia ich oraz możliwości analizy w pózniejszym czasie. Ponadto, w części teoretycznej zostały przedstawione narzędzia umożliwiające dogłębną analizę ruchu na stronie internetowej. W tym wypadku liderem jest Google Inc., z systemem Google Analytics. Narzędzie pozwala poznać mechanizmy i zachowania użytkowników stron internetowych. Dzięki zaawansowanym raportom, możemy dowiedzieć się, skąd użytkownicy przychodzą, czego szukają, jak długi czas spędzają na stronie i z czym mają problemy. Do dyspozycji mamy również narzędzia do analizy zachowań internautów. W tym wypadku również mamy do czynienia z narzędziami firmy Google Inc., wynika to z racji największego udziału procentowego tej wyszukiwarki na rynku wyszukiwania. Google Trends i Google Insight for Search, to narzędzia pozwalające na analizę zapytań kierowanych do wyszukiwarek internetowych. Wiedząc czego, gdzie, kiedy i w jaki sposób szukają, jesteśmy w stanie precyzyjnie odpowiedzieć na potrzeby internautów.

W części praktycznej opiszę funkcjonalność stworzonej aplikacji oraz jej zastosowanie podczas badania różnych czynników wpływających na pozycję stron w wyszukiwarkach internetowych.

Łukasz Jaworski – Praca Magisterska 29

Page 30: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

8. Cel i założenia pracy

Jako cel niniejszej pracy magisterskiej obrane zostało stworzenie narzędzia wspomagającego pracę osób trudniących się pozycjonowanie stron internetowych. Narzędzie to pozwoli użytkownikowi na automatyzację wielu czynności związanych z pozycjonowaniem, jak również umożliwi dogłębną analizę czynników mających największy wpływ na osiągnięcie jak najlepszych wyników.

Celem aplikacji jest również wzbudzenie zainteresowania użytkowników, prowadzące do chęci poznania i zgłębienia przez nich tematyki pozycjonowania stron w wyszukiwarkach internetowych. Głównym założeniem aplikacji było wparcie pozycjonerów w codziennej pracy oraz swoim wyglądem i funkcjonalnością wzbudzać zainteresowanie reszty użytkowników, prowadzące do chęci poznania i zgłębienia przez nich tematu pozycjonowania stron. Interfejs aplikacji powinien być intuicyjny i przyjazny użytkownikowi.

Szczegółowe założenia aplikacji:

• wykaz najważniejszych elementów strony wpływających na pozycję w wynikach wyszukiwania,

• stała analiza algorytmów wyszukiwarek,

• monitorowanie pozycji stron w wynikach wyszukiwarek internetowych,

• analiza konkurencji

Dodatkowym celem, było zapewnienie jak najszerszych możliwości rozbudowy programu o kolejne funkcjonalności. Bardzo ważne było, aby program napisany został najefektywniej. Pozwoli to na komfortową pracę nawet na starszych komputerach. W momencie pisania pracy, standardowej klasy komputerem do użytków domowych był komputer z procesorem Intel Core2Duo 2.0GHz i 4GB pamięci RAM. Program przeznaczony jest na platformę Microsoft Windows.

Dodatkowym celem pracy, była prezentacja możliwości programu na przykładzie kilkunastu nowych stron internetowych i portalu edukacyjnego ciufcia.pl

Po zapoznaniu się z dostępnymi technologiami podjęto decyzję, że projekt zostanie napisany w języku C Sharp i platformie programistycznej .NET środowiska Microsoft Visual Studio 2010.

Łukasz Jaworski – Praca Magisterska 30

Page 31: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

9. Charakterystyka aplikacji oraz omówienie jej głównych składowych

Aplikacja, której poświęcona jest niniejsza praca, została zaimplementowana jako narzędzie do pomiaru i analizy głównych czynników wpływających na pozycję strony w wyszukiwarkach internetowych. Z założenia aplikacja miała być prosta, wygodna i wspomagać w codziennej pracy pozycjonerów. Aby spełniać te kryteria została zbudowana w sposób modułowy. Dzięki temu, możliwa jest łatwa i szybka rozbudowa programu o nowe funkcjonalności. Aplikacja ma na celu wykazanie zależności pomiędzy optymalizacją witryny, sposobem jej „linkowania”, zawartym w 20 parametrach badanych przez program, a pozycjami osiągniętymi w wynikach wyszukiwania wyszukiwarek internetowych. W badaniach brane były pod uwagę wyniki polskiej wyszukiwarki dostępnej pod adresem www.google.pl w trybie wyszukiwania (Web serach). Na rysunku 17 został przedstawiony schemat ideowy aplikacji. Aplikacja składa się z 3 podstawowych elementów, które można przyrównać do modelu MVC (ang. Model View Controler, Model Widok i Kontroler) . Są to:

• aplikacja – będąca swego rodzaju kontrolerem, odpowiedzialnym za sterowanie całą aplikacją i wszystkimi zdarzeniami,

• wizualizacja danych – będąca widokiem, odpowiedzialnym za wizualizacje i przedstawianie otrzymanych wyników w czytelny sposób,

• baza danych – będąca miejscem odpowiedzialnym za przetrzymywanie danych.

Rysunek 17. Schemat budowy aplikacji.

Aplikacja została napisana w języku C Sharp w oparciu o platformę programistyczną .NET – Framework w wersji 4, w środowisku Microsoft Visual Studio 2010. Dane dotyczące analizowanych serwisów przechowywane są w bazie SQLite. Oprócz standardowych elementów, do opracowania aplikacji, wykorzystano takie elementy środowiska jak wielowątkowość. Do stworzenia interfejsu wykorzystano Windows Forms, natomiast do pobierania danych ze stron www skorzystano z biblioteki analizatorów składniowych - HTML Agility Pack. Poniżej, szczegółowo opisałem i uzasadniłem dobraną technologię.

Łukasz Jaworski – Praca Magisterska 31

Page 32: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Na platformę .Net w wersji 4 składają się dwa elementy: Maszyna Wirtualna Common Language Runtime (CLR), a także Biblioteka Klas Podstawowych (Base Class Library – BCL). Proces kompilacji kodu napisanego przez programistę przebiega w odmienny sposób niż ma to miejsce w innych językach zbliżonych składnią do C# (np. C++). Kod kompilowany jest najpierw do Języka Pośredniego (Intermediate Language - IL), kod ten jest zbliżony składniowo do asemblera, jednak nie jest on wykonywany jako zbór poleceń procesora. Drugim etapem procesu kompilacji jest kompilowanie kodu Języka Pośredniego na instrukcje kod maszynowego przetwarzanego przez procesor. Ten etap jest ważny z punktu widzenia mobilności kodu, kompilacja do kodu maszynowego jest ściśle związana z charakterem środowiska, w którym ma być uruchamiany (procesor, system operacyjny). Drugi etap kompilacji realizowany jest przez kompilatory JIT (just-in-time). Kod generowany przez kompilatory jest w pełni zarządzany. Środowisko .NET Framework w pełni kontroluje procesy uruchamiane w trakcie działania aplikacji, zarządza cyklem życia obiektów oraz alokacją pamięci. W skład Biblioteki Klas Podstawowych wchodzą funkcjonalności umożliwiające współpracę z innymi systemami (COM, COM+), bazami danych (ADO.NET), plikami XML oraz aplikacjami internetowymi ASP.NET. Wykorzystując .NET Framework umożliwia pisanie oprogramowania za pomocą ujednoliconej Biblioteki Klas Podstawowych, nie używając niskopoziomowej biblioteki Win32API. Dzięki temu, gdy CLR razem z BCL zostaną przeniesione na inne platformy, takie aplikacje będą mogły być uruchamiane systemach operacyjnych i na innych procesorach. Dotyczy to także różnych systemu Windows.

Ponadto, użycie języka C Sharp pozwoliło na wykorzystanie biblioteki HtmlAgilityPack. HtmlAgilityPack jest to parser znaczników html umożliwiający zapisywanie oraz odczytywanie elementów DOM. Działa on bezpołączeniowo, wymaga dostarczenia kodu html strony. Biblioteka ta używa zapytań XPATH do przeszukiwania kodu strony. Ogromną przewagą w porównaniu z wyrażeniami regularnymi jest możliwość reakcji na zmiany w kodzie html. Wyrażenia regularne są o wiele bardziej sztywne, czyli, minimalna zmiana w strukturze strony może spowodować niedopasowanie wzorca. Ponadto łatwy dostęp do atrybutów znalezionego elementu, przede wszystkim zamiast skomplikowanych wyrażeń regularnych używa się prostych zapytań XPATH. To wszystko sprawia że przeszukiwanie dokumentów HTML staje się o wiele prostsze niż przy użyciu standardowych wyrażeń regularnych.

Użycie metody MethodInvoker sprawia, że korzystanie z interfejsu użytkownika staje się o wiele bardziej komfortowe. Klasa używana w celu zapewnienie płynności działania GUI (wielowątkowe GUI), pozwala ona na wykonywanie operacji na elementach wizualnych (Label, textbox, progress bar) w osobnym wątku, dzięki czemu nie występuję błąd komunikacji pomiędzy wątkami. Zastosowanie tej klasy i metody Invoke jest jednym z elementów, który przemawia za wykorzystaniem aplikacji WinForms. Stosowanie wielowątkowego GUI w przypadku Web jest trudne i wymaga zastosowania: albo aplikacji napisanej w Javie i technologii Portlet, lub zaawansowanych technik ajax i asp.net, jednak takie rozwiązanie generowało by duży ruch pomiędzy serwerem i klientem. Przewaga WinForms nad Web w przypadku tej aplikacji jest taką, że web jest raczej wskazany w przypadku gdy aplikacja wymaga dostępu wielu klientów jednocześnie, natomiast WinForms jest lepszy gdy dane przetwarzane są przez aplikacje w czasie rzeczywistym i użytkownik chce widzieć postęp przetwarzania tych danych. Nic nie stoi jednak na przeszkodzie żeby użyć logiki aplikacji WinForms na stronie ASP.NET, aplikacja zostałą napisana warstwowo, tzn warstwa dostępu do danych (łączy się bezpośrednio z bazą danych), warstwa logiki (przetwarza dane) i warstwa prezentacji (wyświetla dane). migracja do aplikacji webowej ogranicza się do wymiany warstwy prezentacji na stronę ASP.NET.

Łukasz Jaworski – Praca Magisterska 32

Page 33: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

9.1. Funkcjonalność

Podczas tworzenia aplikacji starałem się ograniczyć ilość dodatkowych opcji na rzecz tylko tych najważniejszych. Do podstawowych funkcjonalności aplikacji możemy zaliczyć:

• Tworzenie projektów opartych o analizowane słowa kluczowe.

• Monitorowanie parametrów w zdefiniowanych dla projektów domenach.

• Porównanie zdefiniowanych serwisów z serwisami znajdującymi się w pierwszej dziesiątce wyników wyszukiwania na określoną frazę.

• Analiza stron linkujących do domen zdefiniowanych w projekcie.

• Monitorowanie i wyświetlenie pozycji zdefiniowanych domen w zależności od czasu.

• Tworzenie sumarycznych raportów porównawczych, na podstawie zgromadzonych danych, dla wybranych domen.

9.2. Opis interfejsu

Interfejs aplikacji składa się 4 zakładek. Pierwsza zakładka to analiza konkurencji. Kolejnymi są Analiza Backlinków (linków prowadzących do domeny), wykres pozycji oraz porównanie analizowanych domen. Podane wartości w aplikacji są przykładowymi danymi, służącymi do prezentacji aplikacji. Danych tych, nie należy analizować.

9.2.1. Analiza konkurencji

Analizę rozpoczynamy od dodania projektu do programu, nazwa projektu jest również słowem kluczowym analizowanym w pózniejszych etapach. Okno dodania projektu zostało zaprezentowane na rysunku 18.

Rysunek 18. Okno dodania projektu do programu.

Po dodaniu słowa kluczowego automatycznie rozpocznie się analiza konkurencji dla danego słowa kluczowego w dwóch krokach:

• program pobiera pierwsze 10 wyników z wyszukiwarki dla nazwy projektu/słowa kluczowego,

• program analizuje parametry dla tych stron.

Podczas analizy będzie widoczne okienko z paskami postępu, co jest widoczne na rysunku 19.

Łukasz Jaworski – Praca Magisterska 33

Page 34: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 19. Okno analizy domen.

Po zakończonej analizie wybieramy i aktywujemy interesujący nas projekt. Okno wyboru przedstawione zostało na rysunku 20.

Rysunek 20. Okno wyboru analizowanego projektu.

Następnie po wybraniu projektu możemy dodać domeny do projektu (rysunek 21), dla których będzie można przeprowadzić analizę stron linkujących i zapisywać te dane w bazie.

Rysunek 21. Okno dodania dodatkowych domen do analizy w danym projekcie.

Po dodaniu dodatkowych domen, przechodzimy do głównego okna aplikacji (rysunek 22), z obliczonymi parametrami. Na górnej liście (rysunek 22) znajdują się zdefiniowane przez nas domeny, dla których gromadzone będą dane. Na dojnej liście (rysunek 22 oraz rysunek 23) znajdują się domeny które występują w wyszukiwarkach w TOP10 na zdefiniowaną w projekcie frazę. Rysunek 23 jest fragmentem okna aplikacji, powiększonym dla poprawienia czytelności.

Łukasz Jaworski – Praca Magisterska 34

Page 35: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 22. Okno projektu z obliczonymi parametrami dla wszystkich domen.

Łukasz Jaworski – Praca Magisterska 35

Page 36: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 23. Przedstawia spis domen w programie i fragment wyników wyszukiwania 15.08.2011 r.

Poniżej zostały opisane parametry badane w aplikacji (rysunek 22) i objaśnione ich skróty.

Title, URL, Desc (Meta Description), H1-H3 – parametry te otrzymywane są poprzez przeanalizowanie kodu zródłowego danej strony i zbadanie jej optymalizacji pod kątem określonego w projekcie słowa kluczowego. Parametry te przyjmują wartości Tak/Nie:

Title – określa czy słowo kluczowe zawarte jest w tytule strony, URL – określa czy słowo kluczowe zawarte jest w adresie strony,Desc – określa czy słowo kluczowe zawarte jest w opisie strony,H1-H3 – określa czy słowo kluczowe zawarte jest w tagach nagłówkowych języka HTML : H1,H2 lub H3.Density – parametr ten otrzymywany jest poprzez analizę treści strony docelowej. Określa gęstość w procentach, występowania słowa kluczowego, określonego w projekcie, na danej stronie w stosunku do wszystkich słów znajdujących się w tekście. Przyjmuje się iż wartości 1-6% są optymalne, tak aby nie powodować przesycenia i tak, aby słowo kluczowe było obecne.

Koleje parametry otrzymywane są poprzez przeanalizowanie stron linkujących do zdefiniowanych witryny:

Łukasz Jaworski – Praca Magisterska 36

Page 37: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

a) Suma PR(PageRank): Parametr zawierający łączną wartość parametrów PageRank wszystkich znalezionych stron linkujących do zdefiniowanej witryny.

b) Liczba unikalnych domen – parametr określa ilość linków pochodzących z unikalnych serwisów.

c) Liczba unikalnych domen głównych – określa liczbę unikalnych domen linkujących najwyższe go poziomu.

d) Liczba unikalnych IP – określa liczbę unikalnych adresów IP witryn linkujących do zdefiniowanej witryny.

e) Zróżnicowanie anchorów (zróżnicowanie tekstu, w obrębie tagu a języka html)– określa procentową ilość anchorów, pochodzących z witryn linkujących, zdefiniowanych w projekcie w stosunku do wszystkich występujących anchorow.

f) Linki Follow/No Follow – określa ilość linków zawierających atrybut follow oraz linków zawierających atrybut nofollow (follow – atrybut informujący roboty wyszukiwarek, że należy brać pod uwagę podczas obliczania współczynnika PageRank, stronę wskazywaną przez dany link. Nofollow, analogicznie, oznacza, że strona nie powinna być brana pod uwagę)

g) Liczba domen krajowych – określa liczbę domen krajowych czyli z końcówką .pl.h) Tematyczość stron linkujących – parametr określa średnią gęstość słów kluczowych

znajdujących się na witrynach linkujących do zdefiniowanej domeny.

Powyższe czynniki są analizowane w pierwszej kolejności podczas oceny jakości witryny przed przystąpieniem do pozycjonowania. Również podczas oceny konkurencji, analizuje się wszystkie strony z pierwszych stron wyników wyszukiwania. Ręczne wykonywanie tych czynników jest bardzo pracochłonne. Możliwość zapisu tych danych w bazie, umożliwia pózniejsze zestawienie wyników i ocenę skuteczności wprowadzonych optymalizacji.

9.2.2. Analiza Backlinków

Jedną z ważniejszych rzeczy, podczas pozycjonowania stron jest ocena konkurencji, czyli zbadanie dziesiątek stron w czołówce i ich stopnia zoptymalizowania na daną frazę. Dzięki aplikacji, jesteśmy w stanie zoptymalizować ten proces i z automatu wykonać pracę, na którą zwykle trzeba poświęcić kila godzin. Po 2 krotnym kliknięciu na zdefiniowaną domenę uruchamia się analiza stron linkujących do wybranej strony. Zostało to zilustrowane na rysunku 24.

Łukasz Jaworski – Praca Magisterska 37

Page 38: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 24. Analiza linków prowadzących do danej domeny.

Zebrane dane zapisywane są w bazie do pózniejszych analiz. Wszystkie te dane, dotyczą domen linkujących naszą stronę docelową. W poprzednim rozdziale opisywaliśmy parametry konkurencji, w tym, parametry stron, które przełożą się na jakość naszej strony.

Suma PR (PageRank) domen linkujących to suma PageRank'ów wszystkich domen linkujących do serwisu. Liczba domen i liczba unikalnych domen to bardzo ważny czynnik. Pokazuje jaka liczba linków pochodzi z różnych domen a jaka z subdomen. Dla pozycjonowania bardzo duże znaczenia ma, aby linki pochodziły z różnorodnych zródeł. O takiej różnorodności świadczy również kolejny parametr, jakim jest liczba unikalnych adresów IP. W tym wypadku również ważne jest aby liczba oryginalnych adresów była jak największa. Parametr Linki follow i nofollow, oznacza procent linków z parametrem follow. Liczba domen krajowych oznacza liczbę domen krajowych, dla polski oznacza liczbę domen z końcówką .pl. Tematyczność stron linkujących, to parametr określający średnią gęstość słów kluczowych znajdujących się w witrynach linkujących do zdefiniowanej domeny.

Łukasz Jaworski – Praca Magisterska 38

Page 39: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

9.2.3. Pozycje zdefiniowanych stron

W tej zakładce znajduje się wykres zależności pozycji od czasu dla zdefiniowanych w projekcie domen. Na rysunku 25 przedstawiony został wykres pozycji dla jednej z wybranych domen. Z dolnej listy możemy wybrać domenę, dla której chcielibyśmy wyświetlić wykres. Dostępne jest rysowanie wykresów dla pojedynczej domeny, jak i dla wielu domen. W wykresie zbiorczym linie wykresów dla różnych domen są rozróżnione kolorami.

Rysunek 25. Wykres pozycji w czasie dla danej domeny.

9.2.4. Raporty Stron

Zakładka ta służy do przeglądu i analizowania zgromadzonych danych, można przeglądnąć ich zróżnicowanie w czasie, a także wybrane domeny porównać ze sobą. Przykładowe dane zostały zaprezentowane na rysunku 26.

Do obsługi tej zakładki służą:• 2 listy wyboru, z których wypieramy pierwszą i drugą domenę porównania,• suwak, dzięki któremu będziemy mogli przeprowadzać analizę względem czasu.

W tej zakładce otrzymamy miesięczny przegląd analizowanych danych dotyczących:• domen - PageRank, wiek domeny, obecność w katalogu DMOZ (Directory Mozilla,

Otwarty Katalog Stron) oraz średni cache age ( średni czas zapisanej kopi strony w wyszukiwarce),

• treści – optymalizacji pod kątem obecności słowa kluczowego w tytule, opisie, adresie czy nagłówkach,

• back linków – otrzymamy podsumowanie dotyczące: sumy PageRank stron linkujących, liczbę unikalnych domen, liczbę unikalnych adresów ip, procentowe zróżnicowanie anchorów linkujących do naszej strony, liczbę linków follow lub nofollow, liczby domen krajowych (.pl), oraz średnią zawartość słowa kluczowego w

Łukasz Jaworski – Praca Magisterska 39

Page 40: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

stronach linkujących,• przegląd zachowywania się w czasie najbardziej zmiennych parametrów, jakimi są

pozycja strony, liczba back linków strony oraz ilość podstron zaindeksowanych w wyszukiwarkach – w formie 3 wykresów w prawej części okna.

Rysunek 26. Przegląd zgromadzonych danych i ich prezentacja w czasie.

Łukasz Jaworski – Praca Magisterska 40

Page 41: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

10. Wyniki i wnioski

W tym rozdziale zaprezentowane zostanie badanie przeprowadzone dla czterech nowo zakupionych domen. Badanie ma wykazać jak ważne podczas pozycjonowania stron jest linkowanie i optymalizacja serwisu internetowego. Domeny zostały zakupione specjalnie na potrzeby testu. Bardzo ważne jest, aby domeny nie były nigdy wcześniej zarejestrowane i nie posiadały żadnej historii w internecie. W innym przypadku, badanie mogłoby zostać przekłamane. W badaniu wykorzystana zostanie stworzona wcześniej aplikacja. Dane dotyczące domen, ich parametrów, obliczanych współczynników i pozycji były gromadzone na przestrzeni 1 miesiąca (3.04-30.04.2011). Jako czas testu został wybrany optymalny czas po jakim można liczyć na ustabilizowanie się pozycji. Do analizowania i gromadzenia danych wykorzystano dedykowaną i napisaną w tym celu aplikację. W celu uniknięcia zakłóceń obcych , takich jak konkurencja, do badania wybrano nie istniejącą wcześniej frazę. Fraza „nieistniejąca” w wyszukiwarkach to taka, która po zapytaniu zwraca 0 wyników. Na rysunku 27 widzimy, że po zapytaniu, wyszukiwarka nie zwraca żadnych wyników. Fraza wybrana do tego badania to „r8o0odp”.

Rysunek 27. Wyszukiwarka nie zwraca żadnych wyników na zapytanie „r8o0odp”.

Analizowane w badaniach parametry, to jedne z wielu współczynników, które mają wpływ na pozycję strony. Do badań zostały wybrane te najistotniejsze.Badanie ma na celu porównanie skuteczności, w osiągnięciu wyższej pozycji w Google, optymalizacji strony i linkowania ze stron zewnętrznych. Do zbudowania tych zależności wykorzystane zostaną 4 nowe domeny bez wcześniejszej historii (parametr wiek domeny = 0). Domeny te zostały zaprezentowane w tabeli 4. Wartość „Tak” w odpowiedniej kolumnie oznacza że dana domena posiada back linki albo jest zoptymalizowana, wartość „Nie” oznacza, że dana domena nie posiada, analogicznie back linków albo optymalizacji.

Tabela 4. Tabela przedstawia zestawienie 4 domen.

domena optymalizacja back linkidomena-pierwsza-o.pl Tak Niedomena-druga-b.pl Nie Takdomena-trzecia-ob.pl Tak Takdomena-czwarta.pl Nie Nie

Optymalizacja - strona zostanie zoptymalizowana pod kątem słowa kluczowego, słowo kluczowe

Łukasz Jaworski – Praca Magisterska 41

Page 42: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

będzie występować w tytule (parametr Title), adresie (parametr URL), meta description (parametr description), nagłówkach h1-h3 (parametr h1-h3).Backlinki – do uzyskania linków Yahoo wykorzystano autorski system publikowania na stronach artykułów tematycznych zawierających linki w treści oraz linki z komentarzy na blogach z wysokimi parametrami, m.in. PageRank. Autorski system do publikowania artykułów jest systemem zarządzanym centralnie z panelu administracyjnego. Do systemu możliwe jest podpinanie nowych domen i publikowanie na nich artykułów. System bardzo ułatwia tworzenie nowych stron i zbieranie tematycznych linków. System ten jest rozwijany jako osobny projekt i nie podlega ocenie tej pracy.

Jak widać na rysunku 28 zrobionym w dzień przed rozpoczęciem testu, domeny:• nie posiadają żadnej historii• nie są zaindeksowane w wyszukiwarce Google (parametr site zwraca 0 wyników• nie posiadają żadnych linków przychodzących• wiek domeny równy 0• brak optymalizacji treści (parametry Title,Url,H1-H3,Desc mają wartość „Nie”)• gęstość słów (density = 0%)

Rysunek 28. Badanie domen przed rozpoczęciem testu.

W pierwszym dniu testu (4.04.2011r.) density witryn zoptymalizowanych to 2,05% oraz 2,51%, natomiast niezoptymalizowanych 0,26% i 0,54%. Parametry te świadczą o gęstości słów kluczowych w treści i kodzie strony internetowej. Optymalizując stronę, możemy wpłynąć na ten parametr, zagęszczając odpowiednio tekst i kod strony danym słowem kluczowym. Gęstość początkowa jest przypadkowa. Parametr site jest równy 0 – badane strony zostały stworzone na podstawie popularnego skryptu do tworzenia stron blogowych jakim jest WordPress. System ten posiada automatyczną opcję pingowania, czyli powiadamiania wyszukiwarek o nowych podstronach czy wpisach. W przypadku nowych stron czas do pierwszego zapisu w indeksie może trwać od 1 do 7 dni. Im domena zdobywa większy PageRank, tym szybciej nowe wpisy znajdą się w

Łukasz Jaworski – Praca Magisterska 42

Page 43: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

indeksie Google. W najlepszym wypadku nawet po kilku sekundach. Na rysunku 29 oraz 30 widzimy jak zwiększa się liczba zaindeksowanych podstron podczas trwania testu.

Rysunek 29. Przyrost zaindeksowanych podstron dla domen: domena-pierwsza-o.pl i domena-druga-b.pl. Parametr Site.

Rysunek 30. Przyrost zaindeksowanych podstron dla domen domena-trzecia-ob.pl i domena-czwarta.pl. Parametr Site.

Strony pojawiły się w indeksie wyszukiwarki google. Na wykresie widać przyrost zaindeksowanych podstron dla każdej domeny. Na każdej stronie zostały zaplanowane wpisy do publikacji, które umieszczane są automatycznie w tym samym czasie na każdej z domen. Napisane wcześniej artykuły publikują się w 3 dniowych odstępach czasowych.

Na rysunku 31 został przedstawiony wykres a na nim pozycje oraz liczba linków prowadzących do zoptymalizowanych stron. Przez 6 kolejnych analiz czołowe miejsca: pierwsze i drugie zajmowały tylko zoptymalizowane witryny, wypychając się z pierwszej pozycji naprzemiennie. Wraz z kolejnym przyrostem linków, domena-trzecia-ob.pl zajęła 1 pozycję.

Łukasz Jaworski – Praca Magisterska 43

Page 44: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 31. Wykres pozycji i linków prowadzących dla domen zoptymalizowanych.

Obserwując wykres na rysunku 32 możemy zauważyć spadek pozycji dla domeny drugiej pomimo przyrostu ilości linków. Jest to normalne zachowanie (spadek przy wzroście linkowania często zwiastuje zmianę pozycji na plus), algorytmy wyszukiwarek ciągle przeliczają i aktualizują rankingi strony.

Łukasz Jaworski – Praca Magisterska 44

Page 45: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 32. Wykres zależności pozycji domeny od czasu oraz liczby linków od czasu.

Warto zwrócić również uwagę na parametr: zróżnicowanie anchorów, który utrzymuje się w okolicach 70%. Jest to bardzo ważne, aby do strony nie były kierowane linki posiadające tylko jedno i takie samo słowo kluczowe. Na rysunku 33 zostały zaprezentowane wyniki z aplikacji dotyczące Analizy Backlinków (dane z 16.04.2011 dla domen: domena-druga-b.pl – kolumna pierwsza i domena-trzecia-ob.pl – kolumna druga).

Rysunek 33. Wynik analizy backlinków dla domeny domena-druga-b.pl i domena-trzecia-ob.pl.

Łukasz Jaworski – Praca Magisterska 45

Page 46: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Podsumowując badanie w pierwszej dziesiątce wyników wyszukiwania pojawiły się również inne strony zawierające jedynie w treści dane słowa kluczowe. Domeny te to strony oparte na systemie do publikacji artykułów oraz mocne blogi w których zostały umieszczane linki do testowych stron. Dlatego też ostatecznie domeny nie linkowane zajęły końcowo 4 i 8 pozycję, dając się wyprzedzić nie uczestniczącym w badaniu domenom, co pokazane zostało na rysunku 34.

Rysunek 34. Zestawienie wszystkich 4 domen biorących udział w badaniu.

Zgodnie z przewidywaniami na 1 pozycji uplasowała się domena zoptymalizowana i linkowana: domena-trzecia-ob.pl (102 BL wg Yahoo / zróżnicowanie 68%)2 miejsce (2 pozycja) - zajęła domena niezoptymalizowana ale zawierająca 82 linki / zróżnicowanie 73%, domena-druga-b.pl3 miejsce (4 pozycja) - zajęła domena poddana jedynie optymalizacji: domena-pierwsza-o.pl4 miejsce (8 pozycja) – zajęła domena która nie była ani optymalizowana ani linkowana: domena-czwarta.pl

Łukasz Jaworski – Praca Magisterska 46

Page 47: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

12. Podsumowanie i wnioski

Dzięki stworzeniu aplikacji, praca pozycjonera staje się o wiele wydajniejsza. Sam program przede wszystkim optymalizuje większą cześć prac, które pozycjoner był zmuszony wykonywać ręcznie. Ponadto dzięki aplikacji możliwe jest prowadzenie ciągłych badań i analiza zmian wprowadzanych w wyszukiwarkach internetowych.

Pierwsza edycja programu została z powodzeniem wdrożona w firmie HanBright S.A. Firma jest zainteresowana kupnem najnowszej wersji wraz z wszystkimi dodatkami. Część poprawek funkcjonalnych została zgłoszona przez pracowników firmy HanBright i wprowadzana na ich życzenie. Fakt ten, świadczy o tym, że program cieszy się zainteresowanie a rozwiązania tego typu, są potrzebne na rynku.

W ramach rozwoju oprogramowania, chciałbym rozbudować aplikację o system automatycznych publikacji i linkowania. Prace nad tym rozwiązaniem prowadzę razem z firmą HanBright S.A.

Łukasz Jaworski – Praca Magisterska 47

Page 48: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Spis tabelTabela 1. Tabela przedstawia 5 najpopularniejszych wyszukiwarek na świecie pod względem liczby zapytań (w milionach). [1] ................................................................................................................... 7Tabela 2. Ranking grup witryn i witryn niezgrupowanych według zasięgu miesięcznego. [2]............8Tabela 3. Liczba i odsetki internautów w Polsce. [3]..........................................................................10Tabela 4. Tabela przedstawia zestawienie 4 domen. ........................................................................39

Spis ilustracjiRysunek 1. Liczba internautów na świecie – w milionach. [4]............................................................. 9Rysunek 2. Złoty trójkąt Google. [5].................................................................................................. 11Rysunek 3. Wyniki wyszukiwania dla zapytania „opony”.................................................................. 15Rysunek 4. Wiek domeny wg www.webconfs.com........................................................................... 16Rysunek 5. Schemat działania algorytmu PageRank.......................................................................... 17Rysunek 6. Chmura tagów serwisu interaktywnie.com..................................................................... 19Rysunek 7. Fragment panelu systemu Google Analytics przedstawiający listę fraz kluczowych, po których internauci odwiedzają portal ciufcia.pl w czerwcu 2011 r. ..................................................22Rysunek 8. Fragment wyników aplikacji Google Trends przedstawiający częstotliwość wyszukiwania fraz „samochód” oraz „opony”................................................................................... 23Rysunek 9. Wykres ilustrujący liczbę operacji wyszukiwania.............................................................24Rysunek 10. Regionalne zainteresowanie daną frazą........................................................................ 24Rysunek 11. Najpopularniejsze zapytania powiązane z wybranym filtrem....................................... 25Rysunek 12. Wyszukiwania o rosnącej popularności. ....................................................................... 25Rysunek 13. Fragment panelu systemu Google Analytics przedstawiający wzrost ilości wejść z wyszukiwarek przy wyszukiwania konkretnej frazy w okresie 21 miesięcy.......................................26Rysunek 14. Fragment panelu systemu Google Analytics przedstawiający szczegółowe dane na temat wejść z danej frazy kluczowej.................................................................................................. 26Rysunek 15. Fragment panelu systemu Google Analytics przedstawiający informacje odnośnie konwersji na cel dla danego słowa kluczowego.................................................................................27Rysunek 16. Fragment panelu systemu Google Analytics przedstawiający informacje związane z e-commerce dla danego słowa kluczowego..........................................................................................28Rysunek 17. Schemat budowy aplikacji..............................................................................................31Rysunek 18. Okno dodania projektu do programu............................................................................ 33Rysunek 19. Okno analizy domen.......................................................................................................34Rysunek 20. Okno wyboru analizowanego projektu..........................................................................34Rysunek 21. Okno dodania dodatkowych domen do analizy w danym projekcie.............................34Rysunek 22. Okno projektu z obliczonymi parametrami dla wszystkich domen...............................35Rysunek 23. Przedstawia spis domen w programie i fragment wyników wyszukiwania z 15.08.2011r........................................................................................................................................ 36Rysunek 23. Przedstawia spis domen w programie i fragment wyników wyszukiwania z 15.08.2011r............................................................................................................................................................ 36Rysunek 24. Analiza linków prowadzących do danej domeny...........................................................38Rysunek 25. Wykres pozycji w czasie dla danej domeny................................................................... 39Rysunek 26. Przegląd zgromadzonych danych i ich prezentacja w czasie......................................... 40Rysunek 27. Wyszukiwarka nie zwraca żadnych wyników na zapytanie „r8o0odp”. .......................41

Łukasz Jaworski – Praca Magisterska 48

Page 49: AKADEMIA GÓRNICZO-HUTNICZA IM. STANISŁAWA STASZICAhome.agh.edu.pl/~kopernik/resource_PMiIDP/%A3Jaworski.pdf · tym jego pozycja w wynikach wyszukiwania będzie wyższa. ... może

Rysunek 28. Badanie domen przed rozpoczęciem testu....................................................................42Rysunek 29. Przyrost zaindeksowanych podstron dla domen: domena-pierwsza-o.pl i domena-druga-b.pl. Parametr Site................................................................................................................... 43Rysunek 30. Przyrost zaindeksowanych podstron dla domen domena-trzecia-ob.pl i domena-czwarta.pl. Parametr Site................................................................................................................... 43Rysunek 31. Wykres pozycji i linków prowadzących. ........................................................................44Rysunek 32. Wykres zależności pozycji domeny od czasu oraz liczby linków od czasu.....................45Rysunek 33. Wynik analizy backlinków.............................................................................................. 45Rysunek 34. Zestawienie wszystkich 4 domen biorących udział w badaniu......................................46

Bibliografia[1] B. Danowski, M. Makaruk, „Pozycjonowanie i optymalizacja stron WWW” Wydanie III, 2011

[2] Shari Thurow, „Pozycjonowanie w wyszukiwarkach internetowych”, 2004

[3] Shari Thurow, „Pozycjonowanie w wyszukiwarkach internetowych. Wydanie II”, 2008

[4] ComScore Reports Global Search Market Growth, 2010

[5] Megapanel PBI/Gemius, Raport z 04.2011

[6] Internet World Stats: www.InternetWorldStats.com, 2010

[7] Net Track, Millward Brown SMG/KRC, 2001-2009

[8] Enquirore Search: www.enquiroresearch.com

[9] John I. Jerkovic, „Wojownik SEO. Sztuka osiągania najwyższych pozycji w wyszukiwarkach”, 2010

[10] Wikipedia: http://en.wikipedia.org/wiki/File:Linkstruct2.gif

[11] Ittechnology: www.Ittechnology.us

[12] Google Analytics: http://www.google.com/intl/pl/analytics/

[13] Tomasz Frontczak, „Marketing internetowy w wyszukiwarkach”, 2006

[14] Global Search Report: www.e3internet.com/downloads/global-search-report-2007.pdf, 2007

[15] P. Modrzewski, Google AdWords w praktyce. Skuteczna reklama, 2008

[16] Goole Support: http://www.google.com/support/

Łukasz Jaworski – Praca Magisterska 49