Czy istnieje gotowy przepis na w pełni bezpieczną formę pozycjonowania stron internetowych? Jakich technik pozycjonowania powinniśmy użyć, aby nie narazić się na bolesną karę nałożoną od Google?

Na te oraz inne pytania znajdziesz odpowiedzi w naszym artykule, w którym omówimy kluczowe zasady bezpiecznego pozycjonowania stron.

Na czym polega bezpieczne pozycjonowanie?

Należałoby zacząć od tego, co sama wyszukiwarka Google rozumie przez bezpieczne pozycjonowanie? Pod tym kątem możemy zapoznać się z bardzo szczegółowym przewodnikiem, który znajdziemy w Google Search Central. Znajduje się w nim szereg informacji na temat podstaw SEO i tego, co powinniśmy robić, a czego powinniśmy unikać jako właściciel strony internetowej, któremu zależy na uzyskaniu odpowiedniej widoczności w wyszukiwarce Google. Znalazło się tutaj również wiele cennych uwag dotyczących ostrożności, którą powinniśmy zachować, decydując się na pozycjonowanie strony. Z tymi wskazówki powinniśmy się zapoznać, jeśli chcemy pozycjonowanie strony zlecić specjaliście lub firmie SEO. Zwrócono tutaj uwagę na praktyki, które mogą negatywnie wpłynąć na obecność Twojej witryny w Google, a nawet doprowadzić do jej usunięcia z indeksu wyszukiwarki. Skupimy na nich uwagę w dalszej części artykułu.

Podsumowując – można przyjąć tezę, że głównym celem bezpiecznego pozycjonowania jest poprawa widoczności strony w wynikach organicznych, z jednoczesnym utrzymaniem zgodności z zasadami etycznymi Google. A rozmawiając na temat bezpiecznych metod pozycjonowania, nie możemy pominąć kwestii dwóch ważnych terminów, które od wielu lat doskonale znane są w świecie SEO.

Black & White Hat SEO

White Hat SEO

White Hat SEO polega na pozycjonowaniu opartym wyłącznie na dozwolonych praktykach, zgodnymi z wytycznymi wyszukiwarki Google, które jednocześnie wykluczają wszystkie niedozwolone praktyki. Tego rodzaju termin zaczęto stosować krótko po tym, gdy Google po raz pierwszy zaczęło nakładać kary za nadużycia w zakresie pozycjonowania. Był to okres, kiedy tzw. Black Hat SEO (będące całkowitym przeciwieństwem terminu White Hat SEO) było tak naprawdę na porządku dziennym i garściami czerpało się tego, co nie do końca było rzetelne. A więc nadmierne upychanie słów kluczowych, używanie linków exact-match, czy spamowanie linkami niskiej jakości. Więcej na ten temat napisaliśmy w artykule – Co to jest White Hat SEO?

Black Hat SEO

Black Hat SEO tak naprawdę rozwijało się już od momentu samego powstania wyszukiwarki Google, czyli od 1998 roku. Każdy chciał znaleźć się na czołowych pozycjach wyszukiwarki, tuż po wpisaniu tych czy innych słów kluczowych. Dlatego przez szereg początkowych lat korzystało się z wszelakich metod, które mogły tylko wspomóc pozycjonowanie strony. Powszechne było stosowanie ukrytego tekstu (cloaking) czy spamowych linków na masową skalę. Jak być może część czytających pamięta – nie liczyła się jakość, co liczba linków kierujących do strony. Proces linkowania wyglądał wówczas mniej więcej tak…

Z czasem jednak wszystkie te metody, które można określić mianem Black Hat SEO, zaczęły być wypierane przez Google za pomocą specjalnie przygotowanych zmian algorytmu, Głównym celem, jaki przyświecał Google od tego momentu, było wyrzucenie spamu z wyszukiwarki, co z czasem udało się skutecznie zrealizować.

Filtry i bany – jakie kary za pozycjonowanie od Google?

Wraz ze zmianą algorytmów, strony korzystające z niedozwolonych praktyk zaczęły otrzymywać kary od Google. Jeśli spadek widoczności następował w trakcie zmiany algorytmu, wówczas mieliśmy do czynienia z filtrem algorytmicznym, czyli filtrem nakładanym automatycznie przez algorytm wyszukiwarki. Osobne przypadki stanowiły filtry ręczne, nakładane po sprawdzeniu strony przez pracownika Google. W obu przypadkach strona, która została poddana karze, traciła dotychczasową widoczność organiczną i na dłuższy czas mogła pożegnać się z wysokimi pozycjami, które udało się jej do tej pory wypracować, co oczywiście musiało się przełożyć na duże spadki ruchu organicznego. Przywrócenie dotychczasowych wyników, było nie tylko trudne i czasochłonne, co w niektórych przypadkach wręcz niemożliwe.

Czy tego rodzaju filtry nadal działają? Filtr algorytmiczny przez te wszystkie lata został udoskonalony i można powiedzieć, że obecnie działa on w czasie rzeczywistym, za co odpowiedzialne są algorytmy Panda i Pingwin, które stały się jego stałą częścią. W każdej chwili jest on w stanie zweryfikować, czy nie stosujemy niedozwolonych praktyk. A w sytuacji gdybyśmy takowe praktykowali, dosłownie z dnia na dzień możemy utracić wypracowane pozycje i zaliczyć gwałtowne spadki. Co jednak najgorsze, możemy nawet nie dowiedzieć się o tym, że naszą stronę dotknął filtr algorytmiczny, ponieważ obecnie Google nie informuje o tego rodzaju działaniach.

Zgoła inna sytuacja ma miejsce w przypadku filtra ręcznego. W jego przypadku możemy sprawdzić samodzielnie, czy nie otrzymaliśmy takiej kary od Google (pod warunkiem że wcześniej wdrożone zostało na stronie narzędzie Google Search Console). Jeśli to zrobiliśmy, wystarczy przejść do zakładki „Bezpieczeństwo i ręczne działania – Ręczne działania”. Jeśli znajdziemy w tym miejscu komunikat „Nie wykryto problemów”…

filtr w Search Console

to wówczas możemy odetchnąć z ulgą.

Podstawowe zasady bezpiecznego pozycjonowania

Na co powinniśmy zwrócić uwagę, chcąc w pełni bezpiecznie pozycjonować naszą witrynę internetową?

Bezpieczne linkowanie

Link building to działania mające na celu zdobywanie odnośników do naszej strony, które pozyskamy z innych (wartościowych) stron. Jak wspomnieliśmy już na wstępie, kiedyś pod tym kątem nie liczyła się zbytnio jakość, co liczba pozyskanych linków. Dzisiaj mamy sytuację wręcz odwrotną i największe znaczenie odgrywa jakość samych miejsc, z których pozyskaliśmy linki do naszej strony. Kluczowe jest tutaj powiązanie tematyczne i rzeczywisty ruch organiczny generowany przez stronę, z której udało nam się zdobyć link zewnętrzny. Zupełnie bezużyteczne stały się dla przykładu linki pozyskiwane z zapleczy (tzw. PBN czyli Private Blog Network), które nie generują żadnego ruchu, a ich widoczność organiczna jest na zerowym poziomie.

Stosowanie zróżnicowanego linkowania

Choć warto stawiać głównie na linki z serwisów powiązanych tematycznie z naszą stroną, cieszące się realnym zainteresowaniem internautów, to nie warto zapominać również o tym, by zadbać o zróżnicowanie linków kierujących do docelowej strony internetowej. Nadal możemy zamieścić link do strony w katalogach www, bazach firm (tzw. wizytówki NAP), forach dyskusyjnych czy w serwisach ogłoszeniowych. Warto jednak podchodzić do linkowania z takich źródeł ze szczególną ostrożnością i stosować je bardziej w celu dywersyfikacji samego linkowania.

Content is king… czyli unikalna i wartościowa treść

Tworzenie treści przydatnych, rzetelnych i ukierunkowanych na użytkowników – to jeden z kluczowych podpunktów dokumentacji Google, mówiących o podstawach SEO. Nietrudno się nie zgodzić z tym, że treść na stronie odgrywa znaczącą rolę w budowaniu widoczności organicznej. Warto więc poświęcić odpowiednio dużo czasu na jej przygotowanie. Treść powinna być unikalna, a więc taka, której nie spotkamy w żadnym innym miejscu w sieci, a ponadto wartościowa i przydatna dla użytkownika. Warto zadbać o to, aby pojawiła się nie tylko na stronie głównej, ale również w opisach produktów, kategoriach czy wpisach blogowych.

Wyeliminowanie kluczowych błędów

Bezpieczne pozycjonowanie to nie tylko linki czy treść, ale również bieżąca analiza tego, czy nasza strona nie generuje ze sobą błędów, które będą utrudniały odczyt jej przez wyszukiwarkę. Pod tym kątem warto przeanalizować przede wszystkim informacje, które znajdziemy w Google Search Console. Zazwyczaj to Google sam informuje użytkownika o błędach, które utrudniają mu indeksowanie witryny w postaci wiadomości wysyłanych w panelu (w postaci „Wykryto nowy problem”). Warto na bieżąco je monitorować, a następnie skutecznie eliminować.

Najczęściej spotykane błędy indeksowania w Google Search Console:

  • Błąd serwera (5xx)
  • Nie znaleziono (404)
  • Pozorny błąd 404
  • Strona wykluczona za pomocą tagu „noindex”
  • Duplikat, wyszukiwarka Google wybrała inną stronę kanoniczną niż użytkownik

Sprawdzony hosting, SSL i szybkie ładowanie witryny

Wbrew pozorom zadbanie o stabilne i szybkie połączenie z naszą stroną, to równie ważna i istotna kwestia na drodze do bezpiecznego pozycjonowania. Warto dopilnować, aby strona internetowa działała szybko i sprawnie zarówno na urządzeniach mobilnych, jak również komputerach stacjonarnych. Istotnym elementem, który w ciągu ostatnich lat nabrał szczególnego znaczenia, jest certyfikat SSL, który każda szanująca się witryna posiadać powinna. Zwłaszcza witryny, na których użytkownik pozostawia swoje dane (sklepy internetowe, marketplace’y)
Certyfikat SSL nie jest może kluczowym czynnikiem rankingowym, ale bez wątpienia jego brak może mieć negatywny wpływ na ogólną widoczność witryny oraz zaufanie użytkowników wchodzących na stronę.

Czego unikać w pozycjonowaniu – najczęstsze błędy

Linkowanie z SWL. Obecnie system nie jest może już na tyle popularny co przed laty, ale nadal będący w ofercie wielu firm sprzedających tzw. pakiety SEO, które wedle ich informacji ma na celu przyspieszenie procesu pozycjonowania. W dużym skrócie SWL to duża ilość (raczej niskiej jakości) linków, które będą prowadzić do naszej strony. Dzięki tej metodzie można w stosunkowo szybkim czasie znacząco zwiększyć liczbę backlinków. Obecnie uznawany jest on jednak za ryzykowną technikę, która może przynieść naszej stronie więcej szkód aniżeli pozytywnych rezultatów.

Keyword Stuffing. Działanie polegające na „upychaniu” słów kluczowych w treści, w celu manipulowania wynikami i zwiększaniem szans na wysoką pozycję w wynikach organicznych. Zdecydowanie nie warto praktykować tej metody, a zamiast tego postawić na jakość i naturalność tekstu. Zbyt duże nasycenie treści strony frazami kluczowymi może skutkować nałożeniem filtra na stronę.

Duplicate content. Duplikacja treści może występować wewnętrznie (w obrębie jednej domeny) lub zewnętrznie (na kilku różnych witrynach). Swego czasu powielanie treści było na porządku dziennym. Obecnie jednak, stawiając na jakość i bezpieczne metody pozycjonowania, warto zadbać o unikalną treść, która nie będzie występowała w żadnym innym miejscu.

Cloaking / Hidden text. Technika polegająca na prezentowaniu innej treści użytkownikom strony, a jeszcze innej robotom indeksującym. Do popularnych metod Black Hat SEO należało ukrywanie tekstu na stronie, poprzez umieszczanie dodatkowej treści, która nie była widoczna dla użytkownika. W tym celu wystarczyło ustawić czcionkę w tym samym kolorze co tło strony. Dzięki tej metodzie można było na stronie osadzić więcej fraz kluczowych, na które chcieliśmy się pozycjonować.

Exact match anchor. Metoda polegająca na zakotwiczeniu frazy kluczowej w linku zewnętrznym. Co ciekawe, stosowana zarówno w White Hat SEO jak Black Hat SEO. Jak zatem nie przejść nie świadomie na ciemną stronę mocy? Unikajmy umieszczania masowo tego rodzaju linków w stopkach for dyskusyjnych, stopkach stron czy wielu miejscach jednocześnie. Zbyt duża liczba linków zamieszczana schematycznie w taki sam sposób, może zostać uznana przez wyszukiwarkę za spam i wiązać się z obniżeniem rankingu witryny.

Karol Jaszewski - Specjalista SEO w SAMOSEO
Autor wpisu

Karol Jaszewski

Z branżą internetową związany od ponad 20 lat. Doświadczenie w SEO zdobywał w trakcie rozwijania własnych serwisów internetowych, z którymi związany jest do tej pory – aktualnie głównie o tematyce Business & Finance. Dzięki temu od podstaw miał okazje poznawać czynniki wpływające na SEO.

0 komentarzy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *