Spis treści:
1.Działanie wyszukiwarki i robotów przeszukujących strony
1.1 Pająki i roboty 1.2. Wyszukiwarka a indeksacja
2. Co wpływa na wysoki ranking w Google?
2.1 Ahh te linki 2.2 Jeszcze o Page Rank?
2.3 Dlaczego anchor text? 2.4 Relewantność?
2.5 Trochę o authority 2.6 Końcówki .edu i .gov
2.7 Coś nowego! CTR?!
1.Działanie wyszukiwarki i robotów przeszukujących strony
Wyszukiwarka internetowa (ang. search engine) jest to program lub strona, która ma za zadanie ułatwienie użytkownikom Internetu znalezienie informacji w sieci.[2] Aby lepiej zrozumieć trudność całego procesu należy pamiętać, że protokół WWW umożliwił tworzenie stron, również użytkownikom zewnętrznym, a sama sieć stała się czymś żywym i dynamicznym. Automatyczne sprawdzenie tego, czy źródło (dana strona) jest zaufane stało się największym problem. Głównym celem wyszukiwarek internetowych stało się dostarczenie jak najbardziej trafnych i wiarygodnych wyników do zapytań Internatów.
Zrozumienie sposobu działania oraz funkcjonowania wyszukiwarki ma podstawowe znaczenie. Każda z nich się od siebie różni oraz generuje inne wyniki wyszukiwania. Posiadacze stron internetowych muszą precyzyjnie dostosowywać swoje strony do wyszukiwarki, która będzie ich celem. Obecnym liderem na rynku Polskim wyszukiwarek jest Google. Dzięki regularnym badaniom prowadzanym przez Gemius Traffic Polska wiadomo, że potentat posiada aż 96,67% Polskiego rynku.[3]
Google jest także najpopularniejszą wyszukiwarką internetową na całym świecie. Jednakże tu ich przewaga nie jest tak znacząca. W październiku 2014 roku Google jego udział w rynku oszacowano na 68,75-procent.
[alert-announce]Więcej w tym temacie w artykule Czy wiesz wszystko o Google?[/alert-announce]
Na światowym podwórku do największych wyszukiwarek należy zaliczyć również „baidu.com, które w 2014 roku odnotowała 18.03 proc. udziału we rynku., Yahoo z 6 procentami udziału oraz Yandex.ru, głównie skierowany do osób rosyjskojęzycznych.”[4]
Jeżeli strona internetowa jest tworzona i będzie spełniała wytyczne postawione przez przedstawicieli Google, istnieje olbrzymia szansa, że poradzi sobie też w innych (ważnych) wyszukiwarkach. W wielu aspektach wspomniana wyszukiwarka bardzo przypominała inne już istniejące rozwiązania, jednakże jej interfejs znacznie się wyróżniał. Strona domowa składała się jedynie z bardzo prostego formularza i zwykłego przycisku: „search”. Według literatury to „ta prostota, tak odmienna od wielu ówczesnych wyszukiwarek przypominających wyglądem portale internetowe, była przez wielu czymś bardzo oczekiwanym oraz idealnie spełniła swoje funkcję”.[5] Zdarzało się, że użytkownicy nie byli pewni, że strona załadowała się do końca, więc, by upewnić użytkownika o kompletności procesu ładowania dodano stopkę z prawami autorskim.
1.1 Pająki i roboty
By dobrze zrozumieć działanie wyszukiwarek należy zaznajomić się z kilkoma ważnymi terminami tzn. pająki, roboty, boty indeksujące oraz web crawlery’ami. Są to słowa synonimiczne. Reprezentują one narzędzie do automatycznego przeszukiwania stron internetowych. Wiążą i indeksują możliwie jak największą liczbę stron oraz podstron znajdujących się w sieci WWW. Kolejnym etapem w procesie jest załadowanie (w odpowiednio sparsowanej formie danych o stronach) na serwery Google’a lub innej wyszukiwarki.
Należy również zauważyć, że niektóre z tych robotów nie są pożyteczne. Te niechciane potrafią przychodzić w najmniej oczekiwanym momencie i zeskanować zasoby witryny, które nie powinny ujrzeć światła dziennego. Obciążają one serwery, co wiąże się z dodatkowymi kosztami eksploatacji. Dzięki odpowiednim narzędziom można to kontrolować.[6] Roboty indeksujące stronę, podobnie jak użytkowników, można swobodnie śledzić oraz badać. Zajmują się one indeksowaniem stron i podstron portali. Skanują również różne pliki, który są powiązane ze stroną internetową. Badają także załączone dokumenty oraz zdjęcia.
1.2 Wyszukiwarka a indeksacja
Ważnym aspektem jest fakt, że można wpłynąć na sposób działania robotów przeszukujących oraz ingerować ręcznie w częstotliwość ich odwiedzania.[7] Służą do tego odpowiednie narzędzia Google. Jednakże nie zaleca się zbytniej ingerencji w podstawowe ustawienia. Na samą indeksację wpływa również wiele innych czynników np. wiek strony, jej rozmiar oraz treść, ilość linków.[8] Roboty te nie sprawdzają strony tylko jeden raz. Po pierwszym skanowaniu witryny, roboty indeksujące wrócą do niej po jakimś czasie, by sprawdzić wszelkie zaistniałe zmiany oraz by zaktualizować wszystkie modyfikacje.
Crawler wyszukiwarki Google to Googlebot[9], zaś robot indeksujący Yahoo! nazywa się Slurp[10], a wyszukiwarki Bing – MSNBot. Wszystkie zachowują się stosunkowo podobnie. Zadaniem każdego twórcy strony, który troszczy się o optymalizację dla wyszukiwarek jest ułatwienie pracy tym robotom oraz swobodną i prawidłową indeksację wszystkich podstron portalu.
Technologia robotów nie jest i chyba nigdy nie będzie doskonała. Czasami nie są one w stanie zindeksować w całości witryny. Czasami można im zabronić przeglądania niektórych zasobów strony. Odpowiednie blokady można zastosować w plikach, takich jak: robots.txt, htaccess lub też bezpośrednio w pliku httpd.conf.[11]
Istnieje także możliwość zablokowania indeksacji grafiki i plików multimedialnych. Bardzo często, użytkownicy lub nawet inni blogerzy mogą tworzyć bezpośrednie odwołania do zasobów multimedialnych i stosować tzw. hot linki. Zablokowanie takiej treści jest wskazane, ponieważ każdy serwis ma ograniczoną przepustowość łącza, a nadmiar takich linków może być przyczyną spadku wydajności serwisu.
[alert-announce]Sprawdź również Polepszanie widoczności strony w 7 krokach[/alert-announce]
2. Co wpływa na wysoki ranking w Google?
2.1 Ahh te linki
Gdy strona zostanie już zeskanowana, podlega pewnej automatycznej ocenie. Najpopularniejszy sposób wykorzystywany do dziś, oparty jest na sieci linków. Konceptem używania linków wskazujących z innych stron, jako sposób oceny wartości, został spopularyzowany przez Google. Odbyło się to za sprawą implementacji ich głównego algorytmu oraz systemu oceniania stron zwanego, jako „Page Rank”( inni twórcy też o nim wspominali, jednakże to rosnąca baza użytkowników Google go spopularyzowała). Krótko mówiąc, każdy link z innej strony, jest liczony, jako głos, a ta strona, która ma ich najwięcej wygrywa. Podstawową zasadą było to, że link był „głosem potwierdzenia i zaufania” edytorskiego dokumentu. Idea ta polegała na tym, że edytor a zarazem odbiorca uważał coś za wiarygodne źródło wiedzy, a link do źródła stawał się tego potwierdzeniem.
Idea ta polegała na tym, że edytor a zarazem odbiorca uważał coś za wiarygodne źródło wiedzy, a link do źródła stawał się tego potwierdzeniem.
Jednakże wraz z rozwojem sieci, wydawcy (twórcy stron) dowiedzieli się o mocy, jaką niosą za sobą linki przychodzące.[12]
Niektórzy z nich zaczęli „manipulować” w różny sposób wynikami wyszukiwań. Stworzyło to sytuację, w której linki nie pochodziły od naturalnych odbiorców, lecz od wygenerowanych w sposób sztuczny systemów zdobywania linków. Na reakcję nie należało długo czekać.
Stworzyło to sytuację, w której linki nie pochodziły od naturalnych odbiorców, lecz od wygenerowanych w sposób sztuczny systemów zdobywania linków.
Algorytm jest do dziś wiele razy modyfikowany. Przeciętnie w ciągu roku w celu ulepszenia wyników wyszukiwania, dokonuje się średnio ponad 500-600 zmiań i od 2 do 4 poważnych aktualizacji.[13]
[alert-announce]Sprawdź również Co to jest budowanie bazy linków?[/alert-announce]
2.2 Jeszcze o Page Rank?
Algorytm Page Rank został skonstruowany na podstawie pracy[14] dwóch studentów Sergey Brina oraz Larry’ego Page’a ówczesnych studentów Uniwersytetu w Stanford, późniejszych właścicieli przedsiębiorstwa Google. Główna zasada algorytmu oparta jest na linkach przychodzących. Jednakże, według niego, każdy z nich nie jest tak samo ważny. Algorytm wskaźnika bazuje na tym, że jakość witryny można określić nie tylko zliczając ilość, ale również i jakość samych linków, które na nią wskazują. Im więcej linków przychodzących do strony lub konkretnej podstrony oraz im większa ich jakość (czyli poziom PR), tym lepiej dla oceny witryny.[15]
„Niestety” ten system również zawiódł, a Google w procesie ewolucji i ulepszania algorytmu częściowo zrezygnował i z tego rozwiązania. Jedna z ostatnich aktualizacji wartości wskaźnika miała miejsce w lutym 2013 roku. Do tej pory nie zanotowano żadnych zmian. Ówczesny przedstawiciel Google – Matt Cutts spytany o aktualizację w 2014 roku odpowiedział, że byłoby to wielce niespodziewane, gdyby taka sytuacja miała miejsce.[16] Choć w 2015 roku wielu ludzi pożegnało ten wskaźnik na zawsze, to należy pamiętać, że jest on podstawą algorytmu i jego kręgosłupem.
Chodź w 2015 roku wielu ludzi pożegnało ten wskaźnik na zawsze, to należy pamiętać, że jest on podstawą algorytmu i jego kręgosłupem.
Dlaczego anchor text?
Mimo skomplikowania całego algorytmu oraz skrupulatnemu ukrywaniu jego działania przed użytkownikami to istnieje możliwość wyróżnienia pewnych czynników wpływające na skuteczność pojawiania się danej strony WWW w wynikach Google. Jednym z nich jest tak zwany „anchor text”. Jest to widoczna część hiper linku, która prowadzi użytkownika do adresu strony[17].
Wpływ takich linków może być dość znaczący. Na przykład, jeśli strona będzie w jakiś sposób nieindeksowalna lub roboty będą miały kłopot z odkryciem, jaka jest jej treść, to tekst ten będzie głównym wskaźnikiem dla wyszukiwarki, wskazującym tematykę witryny. Zdarza się to dość często, w szczególności, gdy strona stworzona jest w technologii Flash.[18].
„Niestety” ten sposób oceniania został również odkryty przez „manipulujących” wynikami pozycjonerów. Google, by zadbać o dokładność i rzetelność swoich wyników wkrótce wprowadziła odpowiednią aktualizację swojego algorytmu łagodzącą ten proceder.
Google, by zadbać o dokładność i rzetelność swoich wyników wkrótce wprowadzi odpowiednią aktualizację swojego algorytmu łagodzącą ten proceder.
Relewantność?
Kolejnym ważnym czynnikiem, który warto omówić jest tak zwana relewantność. Oznacza to zgodność tematyczną połączeń(linków) między stronami. Linki, które pochodzą z serwisów / stron o tym samym temacie lub będące z nim ściśle powiązane, są warte więcej niż te, które pochodzą z serwisów niepowiązanych tematycznie.[19] Zapewnia to również ruch naturalny, np. umieszczając logo danego warsztatu na stronie wymiany opon istnieją duże szanse, że odwiedzający będzie również zainteresowany skorzystaniem z usług warsztatu.
Trochę o authority
Następnym czynnikiem wpływającym na wyniki strony jest tak zwane „authority”. Najłatwiej można zrozumieć to zjawisko przyjmując fakt, że znane wyszukiwarki internetowe dały pewnym witrynom znaczącą przewagę nad innymi stronami. Są to głównie strony rządowe, czy związane z edukacją lub z bardzo ważnymi i rozwojowymi projektami. Praktyka pochodzi z popularnego rozwiązania, które zostało opracowane przez badaczy na Uniwersytecie w Toronto. Nazwane jest ono algorytmem Hilltopa. Ranking ten umieszcza strony o najwyższym autorytecie w danej tematyce na szczycie rankingu. Oparty jest głównie na algorytmie, który operuje na specjalnym indeksie „dokumentów eksperckich”. [20]
Końcówki .edu i .gov
Ten fakt również odbił się na branży SEO. Zaczęto więc uznawać, że linki pochodzące ze stron edukacyjnych i rządowych tzn. z koncówką .edu. .gov mają większą „moc”. Kiedy zapytano Matta Cuttsa, głównego eksperta odpowiedzialnego, za jakość wyszukiwania w Google, czy to jest prawda, stanowczo zaprzeczył. Mimo, że Google obejmuje stanowisko negujące ten fakt, to łatwo można sobie wyobrazić, że linki z takich domen mają znaczenie. „Większość osób uważa, że linki z domen .gov i .edu są bardziej wartościowe od innych, gdyż strony takie mają zazwyczaj wyższe rankingi PageRank,”[21].
Rzadko zdarza się, że tego typu portale są miejscami niebezpiecznymi. Są one wolne od wirusów, nie tworzą sztucznych farm linków oraz nie są stworzone z myślą monetyzacji ruchu na swoich stronach. Można z tego wywnioskować, że zgodnie z wszystkimi algorytmami, linki z takich stron mogą wzmocnić pozycję strony w rankingach Google.
Coś nowego! CTR?!
Wraz z wprowadzeniem kolejnych aktualizacji ważnym czynnikiem stała się interakcja użytkownika z wynikami, które otrzymuje on od wyszukiwarki. Na początku osoba taka przekazuje informacje o tym, czego szuka. Wyszukiwarka odpowiada rezultatami, które znajdują się w indeksie dla regionu, z którego łączy się szukający. Polega to na zbadania adresu IP, który niesie ze sobą informację o położeniu użytkownika. System zapisuje cały schemat zachowania. Między innymi:
– mierzy czas, jaki minął od kliknięcia w kolejne wyniki wyszukiwania,
– sprawdza, który wynik kliknięty, jako pierwszy, drugi itd.,
– czas, jaki upłynął miedzy kolejnymi kliknięciami na stronie,
– czas przebywania na stronie,
– ilość stron odwiedzanych przez użytkownika,
– CTR (click-trough-rate) współczynnik klikalności danego wyniku[22].
[2] W. Babik, Słownik encyklopedyczny informacji, języków i systemów informacyjno-wyszukiwawczych, s. 305.
[3] http://ranking.pl/pl/rankings/search-engines.html, (dostęp 08.06.2015)
[4] https://www.eactive.pl/pozycjonowanie-stron/jakie-sa-najpopularniejsze-wyszukiwarki-internetowe-w-polsce-i-na-swiecie/, (dostęp 08.06.2015)
[5] J. I. Jerkovic, Wojownik SEO Sztuka osiągania najwyższych pozycji w wyszukiwarkach, wyd. Helion, 2011, s. 128.
[6]https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag, (dostęp 08.06.2015)
[7] https://support.google.com/webmasters/answer/48620?hl=pl, (dostęp 08.06.2015)
[8] http://leksykon.seoisem.pl/seo/wyszukiwarki/czestotliwosc-indeksowania, (dostęp 08.06.2015)
[9] https://support.google.com/webmasters/answer/182072?hl=en, (dostęp 08.06.2015)
[10]https://www.seochat.com/c/a/search-engine-spiders-help/the-yahoo-slurp-crawler/, (dostęp 08.06.2015)
[11] http://seo.zgred.pl/blokowanie-robotow-majesticseo-oraz-ahrefs-989, (dostęp 08.06.2015)
[12] E. Enge, S. Spencer, J. Stricchiola, R. Fishkin, The Art of SEO, O’Reilly Media, Sebastopol 2012, s. 140.
[13] https://moz.com/google-algorithm-change, (dostęp 08.06.2015)
[14] http://infolab.stanford.edu/~backrub/google.html, (dostęp 08.06.2015)
[15] http://poradnik-seo.pl/pozycjonowanie/page-rank,wskazniki-seo.html, (dostęp 08.06.2015)
[16]http://www.silesiasem.pl/pagerank-google-wycofuje-sie-z-aktualizacji-zielonego-paska,(dostęp 08.06.2015)
[17] https://moz.com/learn/seo/anchor-text, (dostęp 08.06.2015)
[18] https://support.google.com/webmasters/answer/72746?hl=pl, (dostęp 08.06.2015)
[19] http://webinside.pl/artykul-390-seo–strategie-budowania-linkow.html, (dostęp 08.06.2015)
[20] http://www.maxgraph.pl/Baza-SEO-SEM/99/Algorytm_Hilltop, (dostęp 08.06.2015)
[22] http://www.internetmarketingninjas.com/blog/search-engine-optimization/click-through-rate/, (dostęp 08.06.2015)
oj panie autor.. lepiej nie używajmy słów o znaczeniu nam nieznanym..
np:
Chodź w 2015 roku [..] – gdzie mamy iść?
Relewentność – rele co?
Bardzo cieszę się, że przebrnął Pan przez tyle pisanego tekstu. Bardzo dziwne zrobiłem te literówki ;/ Bardzo dziękuję za komentarz i już nanoszę poprawki.
Akurat relewantność jest normalnym i powszechnie używanym wyrazem. Np w politologii partie relewantne to partie istotne dla funkcjonowania systemu partyjnego w danym państwie, mają szansę na zdobycie i sprawowanie władzy.
Zakładam, że p. Michał przyczepił się do literówki którą skrzętnie poprawiłem.
A, no chyba że tak.
Dzisiaj żeby się pozycjonować wystarczy pisać dobry content, który czytelnicy czy klienci pokochają. Trochę go śmignąć pod seo, czyli tu użyć słowa kluczowego, tam użyć słowa kluczowego i jest git.
Na początek polecam wybrać 10 tematów z jakim twoi klienci mogą mieć problem i opisać go. Ruch gwarantowany.
Prawda ale należy pamiętać, że w sieci istnieje wiele gigantów tematycznych więc często nasze artykuły nie będą ani pierwsze ani oryginalne. W dodatku osoby które mają dużą wiedzę techniczną nie są w stanie pisać zgrabnych notek a co powiedzieć poradników 🙂