
Strona niewidoczna w Google – co z tym zrobić?
Trudno wyobrazić sobie sprawnie działającą firmę, która nie ma strony www. Samo posiadanie witryny to jednak dopiero początek. Należy bowiem zadbać o widoczność strony w Google. Na szczęście z pomocą przychodzi marketing internetowy, w szczególności pozycjonowanie strony firmowej.
Dzięki SEO można znacząco zwiększyć ruch na stronie oraz widoczność serwisu w Google. To z kolei przekłada się na ilość zapytań od klientów czy sprzedanych produktów w sklepach internetowych. Często jednak już na starcie pojawiają się problemy, takie jak strona niewidoczna w wyszukiwarce Google. Jakie są tego przyczyny? Odpowiedź znajdziesz w naszym artykule!
Spis treści
Strona niewidoczna w Google – co to oznacza?
Czasem klienci mówią, że Google nie widzi ich strony. W rzeczywistości mają na myśli brak serwisu w TOP 10 wyników wyszukiwania na jakieś konkretne, czasem bardzo trudne frazy kluczowe. Należy mieć na uwadze, że widoczność strony buduje się przez długie lata poprzez konsekwentne specjalistyczne działania.
Czasem jednak spotykamy się z całkowitym brakiem widoczności serwisu w wynikach wyszukiwania. Dla przykładu – po wpisaniu nazwy firmy (brandu) w wyszukiwarce Google, dana strona w ogóle się nie wyświetla. Taka sytuacja jest dość częsta w przypadku nowych witryn internetowych. Indeksacja takiej strony trwa zazwyczaj kilka dni, a nawet tygodni.
Dlaczego moja strona nie jest widoczna w Google?
Jeżeli jednak mówimy o serwisie, który istnieje już od dłuższego czasu i nadal nie jest widoczny w wyszukiwarce Google na żadną frazę, to ewidentnie coś jest nie tak. Jeżeli twierdzisz, że „Google nie widzi mojej strony”, to przyczyn może być wiele. Poniżej przedstawiamy najczęstsze problemy związane z taką sytuacją oraz wskazujemy rozwiązania.
Strona nie została zaindeksowana
Jeżeli wyszukiwarka Google nie zaindeksowała nadal Twojej strony, to dobrze jest działać. Należy wówczas skorzystać z narzędzia Google Search Console (zwanego również GSC) i zgłosić tam naszą stronę internetową do indeksacji. Jak to zrobić?
Należy przejść najpierw na stronę Google Search Console i zweryfikować nasz serwis, czyli udowodnić, że jesteśmy właścicielem strony lub mamy uprawnienia do jej modyfikacji. Zalecana metoda jest faktycznie bardzo prosta, można też skorzystać z kilku innych dostępnych opcji.
Następnie należy zgłosić stronę główną do weryfikacji przez roboty Google (szczegóły na poniższych screenach).
Potem analogicznie warto powtórzyć ten proces dla pozostałych podstron serwisu i oczywiście sprawdzić po kilku/kilkunastu godzinach, czy witryna internetowa pojawiła się już w indeksie Google.
Na koniec warto dodać, że Google Search Console jest niezwykle wartościowym darmowym narzędziem, w którym można przeanalizować nie tylko indeksację strony, ale też ruch serwisu z organicznych wyników wyszukiwania Google czy najpopularniejsze podstrony i słowa kluczowe Twojej witryny na przestrzeni ostatnich miesięcy.
Blokada w pliku robots.txt
Robots.txt jest niepozornym plikiem, który może wywołać wiele szkód, jeśli używa się go w nieumiejętny sposób. Robots.txt służy do blokowania robotom wyszukiwarek internetowych dostępu do konkretnych podstron, katalogów czy innych zasobów (np. wybranych rodzajów plików). Plik ten umieszcza się w folderze głównym serwisu. Błędem krytycznym jest zablokowanie dostępu do całej strony dla robotów Google. Wówczas rzeczywiście widoczność strony będzie zerowa.
Problemy z dostępem do strony z powodu dyrektyw umieszczonych w pliku robots.txt również znajdziemy w Google Search Console (zakładka 'Indeksowanie’ -> 'Strony’ -> Strona zablokowana przez plik robots.txt).
Jeżeli nie posiadamy odpowiedniej wiedzy, to nie powinniśmy wprowadzać zmian w tym pliku. Warto też oczywiście zostawić to specjalistom od SEO, którzy zajmą się tą kwestią i optymalizacją całego serwisu, by pojawiał się na jak najwięcej fraz w wynikach wyszukiwania.
Meta tagi noindex i nofollow
Meta tag noindex jest stosowany, by poinstruować roboty wyszukiwarek, żeby nie indeksowały danej strony. Umieszczenie tego tagu w kodzie witryny powoduje, że nawet jeśli roboty Google odwiedzą stronę, nie zapiszą jej w indeksie. Tym samym strona nie będzie się wyświetlać w wynikach wyszukiwania.
Nofollow nie wpływa bezpośrednio na indeksację samej strony, ale powoduje, że roboty Google nie będą podążać za linkami na stronie i przekazywać im autorytetu SEO. Zatem nofollow nie wyklucza strony z indeksu Google, ale ogranicza przekazywanie wartości linków.
Kombinacja tagów noindex i nofollow
Oba tagi można stosować jednocześnie, na przykład: <meta name=”robots” content=”noindex, nofollow”>. W takiej sytuacji strona nie zostanie zaindeksowana, a roboty wyszukiwarek nie będą podążać za żadnym linkiem na stronie. Taka konfiguracja jest przydatna w sytuacjach, gdy cała zawartość strony ma nie pojawiać się w wynikach wyszukiwania Google. Boty nie będą też weryfikować kolejnych podstron, tak jak robią to standardowo.
Aby zapobiec sytuacji, że nasza strona będzie niewidoczna w wynikach wyszukiwania Google, należy ostrożnie stosować te dwa tagi. W narzędziach Google Search Console można monitorować, które strony zostały oznaczone jako noindex, a także sprawdzić, czy nie ma innych błędów w indeksacji.
Błędy serwera
Błędy serwera (błędy 5XX) mogą powodować, że roboty Google nie będą w stanie zaindeksować strony. Oczywiście chwilowe błędy serwera się zdarzają. Jeśli jednak strona jest przez długi czas niedostępna, to roboty wyszukiwarki nie będą mogły pobrać i zweryfikować zawartości strony. Tym samym serwis nie będzie widoczny w wynikach wyszukiwania Google.
Błędy serwera odnajdziemy także w narzędziu Google Search Console – zakładka 'Indeksowanie’ -> 'Strony’ -> Błąd serwera (5xx).
W przypadku często pojawiających się błędów 5XX administrator strony powinien przeanalizować logi serwera. Warto też skontaktować się z hostingodawcą, a w skrajnych przypadkach rozważyć zmianę serwera. Często występujące błędy 5XX nie tylko wpływają negatywnie na proces indeksacji i widoczność strony w Google, ale też uniemożliwiają użytkownikom korzystanie z Twojej witryny.
Brak mapy witryny
Przyczyną braku widoczności strony może być także brak mapy Twojego serwisu lub błędy w niej występujące. Mapa witryny dostarcza wyszukiwarkom pełnego obrazu struktury witryny, wskazując najważniejsze podstrony i ułatwiając ich regularną indeksację. Należy zadbać o to, by zawierała ona zestawienie wszystkich podstron Twojej witryny, które powinny trafić do indeksu wyszukiwarki. Mapę witryny dodaje się w katalogu głównym serwisu w pliku sitemap.xml.
Brak mapy witryny może negatywnie wpłynąć na widoczność serwisu, ponieważ roboty wyszukiwarek mają wtedy trudniejsze zadanie w odnalezieniu i zaindeksowaniu wszystkich stron. Strony, które są ukryte głębiej w strukturze serwisu, mogą zostać pominięte. Problemem może być też niezbyt optymalne linkowanie wewnętrzne.
Jeżeli mamy już poprawnie działającą mapę witryny, to możemy ją wskazać robotom Google za pomocą Google Search Console w zakładce 'Indeksowanie’ -> 'Mapy witryn’ (szczegóły poniżej).
Filtr/ban od Google
Filtr lub ban od Google to rodzaj sankcji nakładanej na strony internetowe, które naruszają zasady jakości i wytyczne Google dla webmasterów. Ban całkowicie wyklucza stronę z obecności w wynikach wyszukiwania. Filtr może natomiast ograniczyć widoczność serwisu na określone zapytania. Google nie indeksuje wówczas takich stron i nie wyświetla ich treści użytkownikom. Ma to na celu ochronę jakości wyników wyszukiwania. Google chce bowiem dostarczać użytkownikom wyłącznie wartościowe treści.
W przeszłości filtry czy bany od Google zdarzały się znacznie częściej. Warto jednak sprawdzić, czy Jak to zrobić? Z pomocą przychodzi ponownie Google Search Console. Należy przejść do zakładki 'Bezpieczeństwo i ręczne działania’ -> 'Ręczne działania’.
Niskiej jakości treści (thin/duplicate content)
Jeśli treści na Twojej stronie internetowej zostały skopiowane z innych serwisów (duplicate content) i/lub są mało atrakcyjne dla użytkownika, to nic dziwnego, że Google nie będzie chciało ich wyświetlać w swoich wynikach wyszukiwania. Content powinien angażować czytelnika i odpowiadać na jego pytania i potrzeby.
Warto zadbać więc o tworzenie wartościowych treści dla użytkowników sieci. Mowa tu o opisach produktów i kategorii w sklepach internetowych czy treściach na podstronach usługowych. Dobrze jest przygotować też odpowiedni tekst dla strony głównej.
Najlepszą metodą na rozbudowę contentu jest jednak Blog, na którym powinny się znaleźć merytoryczne artykuły poruszające zagadnienia wpisywane często w wyszukiwarkę Google.
Brak linków zwrotnych/nienaturalny profil linkowy
Algorytmy Google weryfikują linki zewnętrzne (backlinki), aby ocenić wartość każdej witryny. Jeśli do Twojej strony prowadzi niewiele linków lub są one niskiej jakości, Google może potrzebować więcej czasu, aby ją odkryć i zaindeksować. Problemem mogą być też nienaturalne linki zwrotne (utworzone w celu manipulowania rankingiem wyszukiwarki).
Jeśli chcesz poprawić widoczność swojej strony, powinieneś zadbać też o ten aspekt. W szczególności unikaj kupowania linków, zwłaszcza w dużych ilościach i z niskiej jakości domen. Jednocześnie pamiętaj, że proces pozycjonowania skupia się w dużej mierze na pozyskiwaniu odnośników z wartościowych serwisów. Warto więc skontaktować się z agencją SEO, która pomoże w tej kwestii.
Wirus/atak hakerski, złośliwe oprogramowanie
Złośliwe oprogramowanie lub obecność wirusa na stronie internetowej jest jednym z głównych powodów, dla których Google może odmówić indeksacji witryny lub nawet usunąć ją z wyników wyszukiwania. Takie zabezpieczenie ma na celu ochronę użytkowników przed złośliwym oprogramowaniem, które może infekować ich urządzenia i prowadzić do wycieku danych osobowych lub innych negatywnych konsekwencji.
Powinieneś zatem zadbać o bezpieczeństwo swojej strony. Jeśli masz stronę postawioną na WordPressie czy innym popularnym CMS, powinieneś aktualizować na bieżąco motywy i wtyczki. W przeciwnym razie luki w bezpieczeństwie mogą wykorzystać hakerzy.
Używaj też unikalnych i trudnych do złamania haseł oraz nie podawaj ich oczywiście nieupoważnionym osobom. Warto też znaleźć firmę, która zajmie się kompleksową obsługą i ochroną Twojej witryny.
Ewentualne problemy związane z bezpieczeństwem strony sprawdzisz również w narzędziu Google Search Console – zakładka 'Problemy dotyczące bezpieczeństwa’ (szczegóły na grafice poniżej).
O ataku hakerskim może też m.in. świadczyć nagły i znaczny przyrost ilości podstron w sekcji 'Indeksowanie’ -> 'Strony’ i/lub dziwne przekierowania w obrębie strony.
Strona zabezpieczona hasłem
Serwis zabezpieczony hasłem nie jest indeksowany przez wyszukiwarkę Google, ponieważ takie zabezpieczenie uniemożliwia robotom wyszukiwarki dostęp do zawartości strony. Roboty indeksujące działają bowiem jak zwykli użytkownicy. Kiedy roboty Google natrafią na ekran logowania, nie są w stanie przejść dalej i nie mogą sprawdzić ani zapisać treści witryny.
Rozwiązanie tego problemu jest proste – unikaj blokowania podstron, które powinny się znaleźć w wynikach wyszukiwania Google.
Błędny link kanoniczny (canonical)
Canonical (link kanoniczny) to wskazówka dla wyszukiwarek, która pozwala określić, która wersja strony powinna być traktowana jako główna, gdy istnieje wiele wersji z podobną lub identyczną treścią. Dodanie linka kanonicznego do kodu strony pozwala wskazać preferowany przez nas adres URL, który powinien być naszym zdaniem indeksowany i uzyskiwać widoczność w wynikach wyszukiwania.
Każda podstrona jest dostępna pod kilkoma wariantami – np:
- http://przykladowa-strona.pl/
- https://przykladowa-strona.pl/
- http://www.przykladowa-strona.pl/
- https://www.przykladowa-strona.pl/
Ewentualne problemy związane z link kanoniczny także znajdziesz w narzędziu GSC – zakładka 'Problemy dotyczące bezpieczeństwa’ (szczegóły na grafice poniżej).
Jeżeli nie posiadamy odpowiedniej wiedzy, to nie warto jest eksperymentować z linkami kanonicznymi. Systemy CMS takie jak WordPress domyślnie ustawiają canonicale.
Łańcuch przekierowań
Łańcuch przekierowań może utrudniać indeksację, ponieważ spowalnia proces docierania robotów wyszukiwarek do właściwej strony docelowej. Wyszukiwarki mają ograniczony budżet crawlowania, czyli ilość stron, które mogą zweryfikować w określonym czasie. Gdy napotykają zbyt wiele przekierowań, tracą zasoby na ich śledzenie. Może to doprowadzić do sytuacji, że niektóre ważne podstrony zostaną pominięte.
Dodatkowo, dłuższy czas ładowania wynikający z kolejnych przekierowań może wpłynąć na ocenę strony pod względem użyteczności, co z kolei obniża jej pozycję w wynikach wyszukiwania. W skrajnych przypadkach roboty mogą przestać podążać za przekierowaniami, uznając je za nieefektywne lub podejrzane, co utrudni a nawet uniemożliwi indeksację serwisu.
Skutki braku widoczności strony www w Google
Brak widoczności strony w wynikach Google może mieć bardzo poważne konsekwencje, w szczególności dla stron, które polegają w dużej mierze na ruchu organicznym. Jeśli Google nie widzi Twojej witryny, to ruch będzie najpewniej bardzo mały.
W przypadku sklepów internetowych czy serwisów online, które zarabiają np. na reklamach, tego typu sytuacja przełoży się zapewne na znaczny spadek przychodów. Mówimy tu o sytuacji, gdy strona www wcześniej była już widoczna w wyszukiwarce Google. Jeśli weźmiemy natomiast pod uwagę nową stronę internetową, to może ona w ogóle nie generować ruchu ani zysków.
Należy mieć też na uwadze, że witryna niewidoczna w Google wymaga zazwyczaj czasu i analizy, żeby sprawdzić, w czym konkretnie tkwi problem. To z kolei generuje koszty. Nawet jeśli problem uda się naprawić, to wyszukiwarka Google będzie najpewniej potrzebowała trochę czasu, żeby widoczność witryny zaczęła rosnąć.
„Google nie widzi mojej strony” – ile czasu może to potrwać?
Jak to w przypadku SEO bywa, trudno jest jednoznacznie odpowiedzieć na to pytanie. Czasem strona www zaczyna pojawiać się w organicznych wynikach wyszukiwania Google już krótko po naprawieniu problemu. Przykładem może być zgłoszenie witryny do weryfikacji w GSC (przy założeniu, że nie występują żadne problemy uniemożliwiające indeksację strony).
Czasem na powrót widoczności strony należy poczekać kilka dni, a czasem tygodni. Dotyczy to chociażby takich sytuacji jak problemy z bezpieczeństwem (atak hakerski czy wirus na stronie). Wyszukiwarka musi mieć pewność, że strona nie stanowi już zagrożenia dla użytkowników sieci i jest zgodna z wytycznymi Google.
Podobnie jest w przypadku poważnych błędów technicznych. Ich analiza i naprawa może wymagać czasem nawet kilku tygodni pracy specjalistów.
Istnieje jednak ryzyko, że nie uda się powrócić do dawnych wyników lub potrwa to długo. Każdy przypadek jest inny.
Co jeszcze zrobić, by pojawić się wysoko w wynikach wyszukiwania Google?
Strona niewidoczna w Google to problem, z którym nadal się borykasz? A może chcesz poprawić widoczność strony internetowej i zacząć pojawiać się wysoko na najważniejsze słowa kluczowe w wyszukiwarce Google? Zleć to profesjonalistom! Usługi SEO to nasza specjalność – zachęcamy do kontaktu!

Michał Pawelec
Pozycjonowaniem zajmuje się od 2018 roku. Zwolennik merytorycznych i interesujących treści oraz zadowolenia klienta z korzystania ze strony www. Po godzinach też ma do czynienia z contentem – hobbystycznie prowadzi bloga true crime.