Wstęp do SEO czyli pozycjonowanie strony internetowej.
Jeżeli interesuję Cię własnoręczne i darmowe pozycjonowanie strony internetowej to zapraszam na krótki kurs technicznego pozycjonowania stron WWW. Nie gwarantuję to oczywiście pierwszego miejsca w wyszukiwarce natomiast jest to pierwszy krok w tym kierunku. Wymagać to będzie pewnej wiedzy informatycznej jednak za pomocą odpowiednich generatorów powinno wszystko się udać. Zaczynamy:
1.Zaplanuj budowę strony.
Musisz skupić się na elementach SEO nim nawet zaczniesz budować swoją stronę. Należy pamiętać, że na poziom optymalizacja wpływa każda część strony internetowej, w tym jej sposób zaprojektowania, regularny rozwój, jej funkcje oraz jej konstrukcja.
-funkcjonalność W przypadku pozycjonowania może brzmieć dziwnie jeśli mówimy o usabilty(wygodzie użytkowanie) ponieważ termin związany jest bardziej z designerską częścią rozwoju stron. Wpływa ona jednak w lwiej części na naszą domenę ponieważ to od funkcjonalności zależy jak zachowuję się użytkownik. To od klarowności i czytelności strony zależy, czy odbiorcy podoba się to co na niej widzi, jak długo na niej zostanie i czy znajdź dokładnie to czego oczekuję oraz jaki będzie jego następny krok.
-struktura linków Podczas tworzenia strony należy pamiętać o dobrym nazewnictwie plików HTML. Muszą zawierać słowa kluczowe. Ważne jest również linkowanie między podstronami. Do najważniejszych stron muszą kierować strony mniej ważne. Warto również umieszczać linki równoległe(między podstronami) oraz należy zadbać o korzystne linki zewnętrzne mianowicie do dobrych i renomowanych stron (najlepiej państwowych). Jak na pozycjonowanie strony internetowej nie wydaję się do dość trudne.
2.Tworzenie mapy XML.
Sitemap to plik oparty na języku XML, zawierający indeks wszystkich stron, zdjęć oraz plików znajdujących się pod adresem naszej strony.
Powinien posiadać tą samą strukturę co strona internetowa(jest to wskazówka dla osób którzy mają ochotę wykonać ją ręcznie). Zazwyczaj jest to plik o nazwie sitemap.xml, sitemap.html. sitemap.php i umieszczamy go na serwerze w głównym folderze strony tak aby silnik wyszukiwarki dotarły do niego bezpośrednio i rozpoczął pozycjonowanie strony internetowej . Istnieją generatory które możesz użyć do stworzenia mapy witryny na swojej stronie internetowej, bez konieczności uczenia się języka XML.
Oto link do jednej z wielu takich stron tu.
3.Tworzenie plik robots.txt.
Plik robots.txt jest to dokument tekstowy, który informuje pająki wyszukiwarek, które części twojej strona chcesz aby były przeszukiwane a które by były blokowane. Umieszczamy go w tym samym miejscu co plik Sitemap.XML czyli w głównym folderze strony. Ręczne tworzenie pliku robots.txt może być trochę mylące dla początkujących, a błędy mogą przypadkowo zablokować pająkom wyszukiwarek przemierzanie poszczególnych części naszej strony. Pragmatycznie polecam wszechstronne i darmowe narzędzia generowania pliku robots.txt np.tu.
4. Używamy atrybutu nofollow.
Atrybut nofollow jest to tag HTML który dodajemy do kodu hiperłącza, który tworzy linki do poszczególnej
strony internetowe.Przykład: <a href=”www.nazwastrony.com” rel=”nofollow”>Anchor
tekst</a> Wszystkie linki które umieszczamy na stronie posiadają swój atrybut. Atrybut dofollow bardzo wpływa na pozycjonowanie strony internetowej , zwłaszcza w budowaniu więzi, które wpływają na ranking strony tzw. Page Rank. Po więcej o Page Rank tu. Zazwyczaj linki do zewnętrznych stron internetowych, zmniejszają rangę naszej strony. Warto aby z naszej strony nie wychodziło zbyt wiele takich połączeń. Ustawianie w linkach atrybutu no follow pozwoli zniwelować ten proces.
5. Tworzenie pliku .htaccess.
Plik .htaccess przesyłamy na serwer strony w celu kontroli zachowania serwera WWW. Umieszczamy go w plikach stron które chcemy blokować.
Może to pomóc w radzeniu sobie z pewnymi problemami, takimi jak dostęp do zabezpieczonych katalogów na serwerze lub blokowanie niechcianych gości z określonych źródeł.
Za pomocą generatora plików .htaccess tu. możemy zablokować zdjęcia z naszej strony. Zablokuję to hotlinking czyli ściąganie zdjęć z naszego serwera na inne strony. Brak takiej blokady może narazić nasze łącze na dodatkowe obciążenia i kłopoty z serwerem i utrudnić pozycjonowanie strony internetowej .
6. Przekierowanie ruchu stron bez WWW na stronę z WWW.
Można zauważyć, że niektóre strony internetowe mogą być dostępne, wpisując adres URL witryny z WWW lub
bez niego. Na przykład adres http://www.nazwastrony.com i http://nazwastrony.com wskaże tą
samą stronę. Mimo tego wyszukiwarki nadal traktuje to jako dwie oddzielne strony oraz nadaje im oddzielny Page Rank(sprawdź wyżej). Dobre pozycjonowanie strony internetowej wymaga od nas aby przekierować ruch ze strony bez-WWW na stronę WWW. Można to zrobić za pomocą przekierowania 301. Taki kod można uzyskać dzięki odpowiedniemu generatorowi tu.
7. Skanowanie naszej strony w poszukiwaniu błędów za pomocą W3C.
Czysty kod, który spełnia standardy internetowe ułatwia robotom indeksowania witryny co oznacza szybsze i bardziej efektywne pozycjonowanie strony internetowej . Witryny z lepszą semantyką oraz prędkością ładowania są traktowane lepiej i są szybciej uaktualnianie. W przypadku W3C, zdarza się, że podczas sprawdzania otrzymujemy wiele niezrozumiałych błędów. Nie należy oczywiście załamywać rąk lecz dojść do tego aby było ich jak najmniej możliwe. Link do testu tu.