Życie SEO-wca nie jest proste, zwłaszcza w obliczu licznych aktualizacji algorytmu, które znacząco zmieniają wyniki wyszukiwania. Niestety, w wielu przypadkach, spadki widoczności notują serwisy, na których stosuje się dobre praktyki SEO, aby po kilku miesiącach wróciły do poziomu sprzed spadku. O co w tym wszystkim chodzi? W jakim kierunku zmierza Google? 

Mówi się, że od sierpnia 2018 roku aktualizacje dotykają głównie stron z branży medycznej. Jest to jednak pewne uproszczenie, bo wyraźne fluktuacje notują również m.in.:

  • nieruchomości (np.: biura nieruchomości, dom i ogród)
  • technologie (np.: elektronika i gadżety, smartfony i komputery)
  • finanse (np.: porównywarki kredytów)
  • wiele innych

Skąd więc takie mocne nastawienie na branżę medyczną i dlaczego każda kolejna aktualizacja wydaje się wyruszać w zupełnie innym kierunku niż poprzednia? Aby odpowiedzieć na te pytania, przeanalizowałem 15 najpopularniejszych aptek internetowych oraz wiele serwisów contentowych, a poniżej przedstawię wyniki tych analiz. 

W ostatnim roku, w naszym zespole mieliśmy okazję do analiz setek serwisów, dzięki czemu, natknęliśmy się na wiele serwisów, które zanotowały wyraźne zmiany widoczności wynikające z kolejnych aktualizacji algorytmu. Były to zarówno głębokie, jak i pobieżne analizy (m.in. w celu przygotowania oferty), jednak wyłania się z nich pewien trend, który wydaje się szczególnie interesujący. W poniższych analizach pominąłem kilka niuansów, aby wyciągnąć ogólny obraz całości. Mimo wszystko, zaprezentuję kilka „smaczków” oraz ciekawych wniosków.

W tym artykule zaprezentuję statystyki wybranych serwisów i przeanalizuję jak zachowywały się na przestrzeni ostatniego roku. Co więcej, postaram się sprawdzić czy zapewnienia Google o tym, że „doceniamy mniejsze serwisy, które do tej pory nie były odpowiednio nagrodzone” oraz „twórzcie serwisy i treści dla użytkowników” pokrywają się z rzeczywistością.

Zapraszam do lektury i polecam przygotowanie dużej kawy (albo i dwóch). Do rzeczy!

O co tyle szumu?

Google od zawsze kieruje się zasadą dostarczania użytkownikom jak najtrafniejszych wyników wyszukiwania, a każda kolejna aktualizacja ma na celu zbliżenie się do tego celu. Nie jest to proste, ponieważ na „idealne wyniki” składa się wiele elementów. No bo jak zdefiniować czym jest taki wynik? Jak zaprezentować użytkownikowi TOP10, które odpowiedzią na jego pytanie? Każdy ma inne oczekiwania względem tego, co chce zobaczyć w wyszukiwarce, a sposób zadawania pytań jest bardzo urozmaicony.  I to jest jeden z głównych problemów Google – sam John Mueller twierdzi, że algorytm nigdy nie będzie w stanie rozumieć intencji zapytania tak jak człowiek. Jednak specjaliści giganta z Mountain View nie poddają się i robią w tym kierunku wyraźne postępy.

Rozwinięcie tej myśli opisano dość szczegółowo na blog.google przy okazji opublikowania informacji o BERT – technologii mającej na celu jeszcze lepsze rozumienie języka naturalnego:

„Naszym zadaniem jest dowiedzieć się, czego szukasz i znaleźć przydatne informacje z sieci, bez względu na to, jak przeliterujesz lub połączysz słowa w zapytaniu. Mimo że przez lata doskonaliliśmy nasze umiejętności rozumienia języka, czasem wciąż nie rozumiemy tego poprawnie, szczególnie w przypadku złożonych lub konwersacyjnych zapytań.” (tłum. Google)

Idąc dalej, pracownicy Google uważają te osiągnięcie za największy od kilku lat krok w celu udoskonalenia swojej wyszukiwarki:

„Dzięki najnowszym osiągnięciom naszego zespołu badawczego w dziedzinie nauki rozumienia języka – możliwym dzięki uczeniu maszynowemu – znacznie poprawiamy sposób rozumienia zapytań, stanowiąc największy krok naprzód w ciągu ostatnich pięciu lat i jeden z największy skok w historii wyszukiwania.” (tłum. Google)

Czy proces ten rozpoczął się dopiero od BERT-a? Oczywiście, że nie. BERT to jedynie kolejny etap rozwoju, który w ostatnich latach nabiera rozpędu. Znaczące zmiany w SERP-ach odnotowywane są już od dłuższego czasu (Rank Brain oparty na Machine Learning wdrożono już w 2015 roku), a od sierpnia 2018r. jeszcze bardziej nabrały na sile (gdzie wdrożono Neural Matching). Analizując aktualizacje z ostatniego roku można odnieść wrażenie, że rozpoczęto wówczas długofalowy proces, mający na celu udoskonalanie technologii przetwarzania języka naturalnego (NLP), intencji zapytań oraz definiowania co oznacza pojęcie „wartościowy serwis”.

Ocenianie jakości stron

W 2015 roku opublikowano wytyczne dla moderatorów treści w wynikach wyszukiwania, co dało nam dokładniejsze pojęcie o tym, co jest uważane za witrynę wysokiej jakości (lub niskiej) z perspektywy Google’a (dokument ten jest regularnie aktualizowany, a jego najnowszą wersję znaleźć można pod tym adresem). Wskazówki początkowo przeznaczone były wyłącznie dla pracowników Google, jednak wcześniej miał miejsce wyciek informacji (pierwszy raz już w 2008 roku), który pchnął władze firmy do opublikowania ich oficjalną drogą. Dlaczego to tak istotne? Ponieważ wskazówki te kierowane są do ludzi, którzy ręcznie przeglądają serwisy i wyrażają o nich swoją opinię. Nie jest to analiza dokonywana przez bezduszną maszynę, która często ma problemy z właściwą oceną merytorycznej zawartości strony. Oceny przyznawane przez moderatorów służą do określania, czy aktualna ocena algorytmu na temat danej strony jest poprawna czy nie. Jest to więc pewna forma nauki, która definiuje to, w jaki sposób powinniśmy tworzyć strony.

Google od dawna powtarza: „twórzcie strony dla użytkowników. Jeśli spodoba się Twoim odwiedzającym, z pewnością doceni to również algorytm”. W kontekście publikacji z 2015 roku nabiera to wielkiego znaczenia. To, że człowiek pomaga w ocenie algorytmowi było wiadome od dawna, jednak teraz zdobyliśmy dokładniejsze informacje o tym, co jest brane pod uwagę przy analizie stron i jak analizuje się kwestię ich „eksperckości”.

Na temat wspomnianych wytycznych Google powiedziano już wiele. W tym miejscu postaram się przybliżyć w skrócie ich najważniejsze elementy:

E-A-T

Wskaźnik określający ogólnie pojęte zaufanie do domeny. Składają się na niego:

  • Expertise – twórcy treści na stronie powinni wykazywać cechy typowe dla ekspertów z danej branży. Jeśli prowadzisz serwis medyczny, dobrze postrzegani są autorzy z tytułami medycznymi czy certyfikatami. Co warte podkreślenia, tekst, który nie jest tworzony przez eksperta również ma szansę na odniesienie sukcesu. Musi jednak opierać się na zaufanych źródłach i stanowić wysoką wartość dla użytkowników.
  • Authoritativeness – autorytet strony, odnoszący się do twórców, treści oraz uznania całej domeny za wartościową w swojej branży.
  • Trustworthiness – zaufanie do strony oraz autorów treści. Bycie źródłem godnym zaufania oznacza, że ​​ludzie mogą Ci zaufać, że dostarczysz im prawdziwych i dokładnych informacji.

Kolejnym pojęciem, na które warto zwrócić uwagę jest:

YMYL

Your Money or Your Life (YMYL) odnosi się do stron, które poruszają ważne tematy, mogące mieć wpływ na nasze życie i zdrowie. Oczywistymi przykładami są tutaj finanse czy medycyna. Strony poruszające się w tych tematykach są analizowane bardziej szczegółowo, a poprzeczka jest dla nich zawieszona znacznie wyżej niż dla innych branż, co owocuje tym, że zasady E-A-T są dla nich niezmiernie istotne. To jeden z elementów, które spowodowały, że ostatnie aktualizacje tak mocno dotykają strony z branży medycznej.

Doskonalenie rozumienia treści i znaczenia zapytań

W sierpniu 2018 roku, wdrożono aktualizację, popularnie zwaną „Medical Update”. Poczyniono wówczas mocny krok w kierunku dokładniejszego rozumienia treści stron oraz znaczenia zapytań zadawanych do wyszukiwarki, opierając się jeszcze mocniej o metody machine learning. Całość nazywana jest jako „neural matching” (dopasowanie neuronowe), a jak w sierpniu 2018 r. wspomniał Danny Sullivan, było one wówczas wykorzystywany dla 30% zapytań:

Google nie brakuje danych, jednak każda kolejna aktualizacja przynosi nowe wnioski, które stanowią okazję do doskonalenia algorytmu. Od sierpnia 2018 r. wyraźnie widać, że proces zbierania danych trwa kilka miesięcy, a następnie dokonywana jest kolejna głęboka aktualizacja rdzenia algorytmu. Nie sposób oprzeć się wrażeniu, że czasami wygląda to jak typowe testy A:B, ponieważ widoczność wielu stron wraca praktycznie do identycznego poziomu sprzed 3-4 miesięcy. Poniżej prezentujemy listę najważniejszych, potwierdzonych i niepotwierdzonych aktualizacji, które w ostatnim czasie wyraźnie zamieszały SERP-ami:

  • Potwierdzona: „Medical Update” (Core Update) — 1 Sierpnia, 2018
  • Niepotwierdzona: 8 października, 2018 (>2 miesiące)
  • Potwierdzona: March 2019 Core Update — 12 Marca, 2019 (>5 miesięcy)
  • Potwierdzona: June 2019 Core Update — 3 Czerwca, 2019 (<3 miesiące)
  • Potwierdzona: September 2019 Core Update — 24 Września, 2019 (<4 miesiące)

W praktyce, wiele stron notowało zmiany takie jak poniżej:

historia aktualizacji Google na przykładzie

Najdłuższy okres pomiędzy kolejną aktualizacją to 5 miesięcy.

Podsumowanie wstępu do analizy

W świecie SEO pojawiło się wiele głosów za tym, że jedna aktualizacja jest korektą poprzedniej i jeśli strona odnotowała spadek to „wystarczy czekać, a widoczność wróci”. W części przypadków ma to zastosowanie i widać, że kolejne aktualizacje są w wielu przypadkach „niezdecydowane”. No bo jak nazwać sytuację, w której strona traci 50% widoczności, aby za 3 miesiące wrócić do poprzedniego poziomu? Czy na przestrzeni 3 miesięcy zmieniła się na tyle, aby raz zostać uznaną za niskiej jakości, a następnie usłyszeć od algorytmu: „nie, jednak pomyliłem się w ocenie”? Wg mnie od pewnego czasu wyraźnie nastawiono się kwestie rozumienia treści stron oraz zapytań użytkowników, które w połączeniu z określaniem jakości witryn (E-A-T) dostarczają coraz dokładniejszych wyników wyszukiwania. Niestety, proces ten jest dość chaotyczny, ale po głębszej analizie można dostrzec, że w tym zamieszaniu jest pewna metoda, co postaram się potwierdzić w końcowych wnioskach.

BERT (aktualizacja wdrożona 22 października 2019r.) to kolejny etap doskonalenia się wyszukiwarki Google. Wg oficjalnego komunikatu, BERT ma pomóc w jeszcze lepszym rozumieniu intencji użytkownika, a jego działanie było ulepszane przez dłuższy czas. Do tej pory Google uważało wyrażenia wpisywane w wyszukiwarkę jako zbiór słów. BERT ma nie tylko rozumieć wyrazy w zapytaniu, ale także ich kontekst i kolejność. Póki co, wdrożono go jedynie dla zapytań anglojęzycznych, jednak jak informuje Google, udoskonalenia wdrażane dla tych wyszukiwań, mają przekładać się również na inne kraje. Czy BERT jest jednak czymś wyjątkowym, z czym nie spotkaliśmy się jeszcze do tej pory? Nie, to kolejne usprawnienie, które pomaga rozwiązaniom wdrożonym już kilka lat wcześniej. Problem rozumienia zapytań użytkownika i treści na stronie to jeden z głównych problemów Google, któremu poświęca się w ostatnim czasie wiele uwagi, a wdrożony w 2015 roku Rank Brain był pierwszą metodą wykorzystującą sztuczną inteligencję do rozumienia zapytań. BERT nie zastępuje Rank Brain, jest jedynie kolejną z metod, która ma za zadanie stworzyć SERP-y trafniejszymi.

Wszystkie powyżej opisane wydarzenia ukierunkowują nasze myślenie na to, jak Google postrzega przyszłość swojej wyszukiwarki a jej istotą jest lepsze rozumienie treści, intencji zapytań oraz sprawniejsze określanie jakości stron. Algorytmy oparte na uczeniu maszynowym mają być odpowiedzią na stale zmieniające się realia oraz trudności związane z rozumieniem języka naturalnego. Póki co, wyniki wyszukiwania ulegają regularnym, wyraźnym zmianom, a algorytm jest cały czas na etapie wytężonej nauki.

„Codziennie obserwujemy miliardy wyszukiwań, a 15 procent tych zapytań to zapytania, których wcześniej nie widzieliśmy – dlatego opracowaliśmy sposoby zwracania wyników dla zapytań, których nie możemy przewidzieć”blog.google

Jest to bardzo ważna wypowiedź, ponieważ pokazuje jak duże znaczenie mają metody Machine Learning, wspomagające pracowników Google tam, gdzie sami jeszcze „nie byli”. Uczenie maszynowe wymaga jednak niesamowitych zasobów do przetwarzania danych, co wpływa na coraz liczniejsze błędy towarzyszące różnym usługom Google (więcej o tym we wnioskach końcowych). Wydaje się, że nawet tak potężna firma jak Google nie jest w stanie zapewnić wystarczającej infrastruktury, która „udźwignęłaby” ten proces bez większych problemów

Wg mnie, znacząco wpływa to na podejście do SEO (a przynajmniej powinno wpływać), a coraz istotniejsze staje się dbanie o to, aby do indeksu dostarczać jedynie wartościowe adresy oraz, aby jak najmocniej ułatwić Google zrozumienie treści strony.

Pojawia się wiele głosów mówiących o tym, że jeśli strona zanotowała spadek po aktualizacji, wystarczy czekać nie dokonując większych zmian. Ale czy na pewno? Czy istnieje coś, co może zabezpieczyć nas przed wahaniami? Czy strony, które najmocniej zyskują na kolejnych aktualizacjach wyróżniają się czymś szczególnym? Poniżej postaram się przedstawić zmiany, które dotknęły branżę medyczną w ostatnim roku oraz przedstawię moje wnioski.

Medical Update – Analiza stron z branży medycznej

Do analiz wykorzystałem znaczące grono serwisów, jednak poniżej zaprezentuję jedynie najciekawsze wnioski. Na pierwszy ogień zaprezentuję dane z analizy 15 najpopularniejszych aptek internetowych w Polsce pod kątem widoczności w TOP10 (wg SENUTO). Jednak najpierw kilka założeń:

  • do analizy wybrałem apteki z największą widocznością w sierpniu 2019r.,
  • dane pobrałem w tygodniu sprzed i po aktualizacji (czasami były to elastyczne terminy bo niektóre apteki reagowały na zmiany z pewnym opóźnieniem),
  • na niektórych stronach wystąpiły inne czynniki niż same aktualizacje (np. migracja eapteka.pl na drmax.pl), ale nie miały większego wpływu na ogólne wnioski płynące z aktualizacji,
  • większość aptek wystartowała najpóźniej w 2013 roku, więc kwestia „stażu” nie odgrywała w analizach aż tak istotnej roli. Wyjątkiem jest apteline.pl, która wystartowała w 2016 roku i od tamtej pory przez większość aktualizacji notowała same wzrosty,
  • zmiany oznaczyłem kolorami, gdzie zielony oznacza wyraźny wzrost, czerwony wyraźny spadek, a żółty delikatne zmiany na plus bądź minus
  • Apteline.pl została włączona do analiz jednak muszę podkreślić, że nie jest to typowa apteka internetowa, a hurtownia. Nie podlega więc takim restrykcjom prawnym jak apteki i może „pozwolić sobie na więcej”. Pomimo tego, w tekście często nazwę ją „apteką”. Jest to o tyle istotne, że przez większość aktualizacji notowała bardzo dobre wyniki, a fakt bycia hurtownią nie był tu bez znaczenia.

Widoczność w TOP10 na przestrzeni ostatnich aktualizacji:

Analiza aktualizacji w Google - dane historyczne

*Fioletowe oznaczenia w konkretnych komórkach to robocze komentarze, których nie usuwałem robiąc zrzuty ekranu. Proszę nie zwracać na nich większej uwagi.

Jak można dość szybko zauważyć, niektóre aktualizacje wpływały podobnie na większość aptek, np.: aktualizacja marcowa pozytywnie wpłynęła na 12 z 15 analizowanych stron. Czy to kwestia ich reputacji, optymalizacji czy może profilu linków? Aby odpowiedzieć na to pytanie dokonałem dokładniejszych analiz odnoszących się do poniższych statystyk.

Co braliśmy pod uwagę w największym stopniu?

Profil linków:

  • Podstawowe parametry takie jak Domain Rank (Ahrefs), Domain Authority (Moz.com), wiek domeny (starałem się brać pod uwagę faktyczne rozpoczęcie prac nad stroną. Niektóre z aptek były kiedyś zupełnie innym bytem jak np. apteka-leki.pl w 2014 roku)
  • Parametry domen linkujących, głównie pod kątem DR
  • Parametry konkretnych linków kierujących do strony, pod kątem ich URL Rating (Ahrefs),

Tab. Wycinek danych zgromadzonych podczas analiz (domeny posortowano wg ich widoczności w TOP 10 w dn. 19.08.2019r.)

Oczywiście do rzetelnej analizy nie wystarczą suche liczby. Dlatego dla kilku wybranych aptek (które wyróżniały się czymś na tle innych) dokonałem dokładniejszych analiz, uwzględniając m.in. ich 50 najmocniejszych linków pod kątem UR (URL Rating), w celu określenia czy najmocniejsze linki pochodzą z artykułów, stałych współprac (np. poprzez umieszczenie baneru na stronie producenta leku jak np.: apap.pl) czy wpisów na forach.

Uwaga nr 1: Stworzyłem również drugie zestawienie oparte na danych z Moz.com pod kątem DA linków, jednak dane są dość zbliżone, nie wprowadzały nowych wniosków, więc postanowiłem pominąć tę tabelę.

Uwaga nr 2: analiza profili linków dotyczy danych zgromadzonych w październiku 2019r., więc może mocno odbiegać od sytuacji w 2018 roku. Niemniej, wyraźnie pomogła mi w określeniu sensu wdrożenia najnowszych aktualizacji.

Ogólny stan optymalizacji

Tak, wiem, że bez przeprowadzenia pełnego audytu ciężko wyciągnąć daleko idące wnioski, ale z pomocą naszego zespołu przeanalizowaliśmy strony aptek dość dokładnie (jak na możliwości zrobienia takiej analizy bez dostępu do wewnętrznych danych). Analizie podlegały elementy takie jak np.: zmiany szat graficznych na przestrzeni 2 ostatnich lat, jakość opisów produktów i kategorii czy strukturę linkowania wewnętrznego. Poniżej wycinek tabeli zawierającej analizowane elementy:

Intensywność i jakość pracy z contentem (głównie w kontekście blogów), czego wynikiem była m.in. ta tabela:

*Warto dodać, że powyższa tabela nie uwzględnia kilku niuansów, które opisujemy poniżej, czyli np.: migracja bloga cefarm24.pl z subdomeny do katalogu czy przebudowa serwisu allecco.pl.

Ponadto przeanalizowałem autorów tworzących treści na blogach pod kątem liczby wzmianek w branżowych serwisach medycznych oraz w social mediach. Pod uwagę brałem jedynie wyniki, które pojawiały się w TOP10 dla zapytania związanego z imieniem i nazwiskiem autora (wraz z tytułem naukowym). Poniżej wycinek tabeli:

Elementy wykazane powyżej to najważniejsze z tych, które podlegały analizie. Teraz czas na wnioski.

Wnioski wynikające z analiz poszczególnych aktualizacji

Medical Update – Sierpień 2018 r.

Pierwsza omawiana aktualizacja w dużej mierze dotknęła mniejsze apteki, promując jedynie kilka największych. Widać wyraźną korelację pomiędzy liczbą fraz w TOP10, a uzyskanym spadkiem lub wzrostem:

analiza medical update

Apteki posortowane wg liczby fraz w TOP10 przed aktualizacją

Z mniejszych stron jedynie aptekaolmed.pl uzyskała jakikolwiek wzrost. Jednak był tak nieznaczący, że na wykresie SENUTO praktycznie nie istnieje. Co więcej, przy okazji kolejnej aktualizacji zanotuje znaczący spadek. Wydaje się, że na wynik wpływ miała głównie aktualna pozycja serwisów, którą wypracowały sobie przez lata działalności (najmłodsza z nich zaczęła działać w 2008 roku).

Wnioski:

  • (Wzrosty) Wszystkie „zielone” apteki (czyli te, które odnotowały wzrost) wyróżniały się mocnym profilem linków
  • (Wzrosty) Znaczna część (ale nie wszystkie) „zielonych” aptek stosowała się do wielu dobrych praktyk SEO, natomiast „czerwone” wykazywały pod tym kątem pewne braki (nawet w tak podstawowych elementach jak optymalizacja tagów title czy nagłówków H1 pod frazy kluczowe). Co ważne, serwisy które teraz odnotowały spadek, a były poprawne pod kątem technicznym, przy okazji kolejnej aktualizacji odnotują wyraźny wzrost – ale o tym więcej w dalszej części tekstu,
  • (Wzrosty) cefarm24.pl posiadał bloga na subdomenie i sam blog zaliczył wyraźny spadek:

Natomiast www.cefarm24.pl bez subdomen (czyli bez bloga) zaliczył mimo wszystko wyraźny wzrost:

  • (Wzrosty) Największym wygranym okazała się Apteka Gemini i warto zwrócić uwagę, że uruchomiła bloga zdecydowanie najpóźniej z całego grona zwycięzców tej aktualizacji – dopiero na początku 2018 roku, co mogło oczywiście wpłynąć na zwiększenie widoczności. Jakie frazy uzyskały wzrosty? Z pewnością poradnikowe, m.in.:

Ale również te sprzedażowe:

  • (Spadki) Największy procentowy spadek dotknął nowafarmacja.pl i w tym przypadku dotknął on głównie stron producentów, produktów oraz po części wpisów blogowych. Istotną informacją jest ta, że do tej pory apteka ta nie korzystała z usług „medycznych” copywriterów z doświadczeniem. Zmieniło się to dopiero niedługo później, co zostanie docenione przy okazji kolejnych aktualizacji.

Podsumowanie

Wygląda na to, że zmiany dotyczyły stron jako całości, nie zwracając większej uwagi na rodzaj zapytania zadawanego do wyszukiwarki. W całej tej aktualizacji można było dostrzec pewien zamysł związany z ogólną jakością serwisów. Jednak należy tu podkreślić, że na tę jakość składa się wiele elementów, wśród których warto wyróżnić również aspekty techniczne. Niestety, w niektórych przypadkach zamysł ten nie miał zastosowania, a dobrze prowadzone serwisy jak np.: apteline.pl, zanotowały wyraźne spadki (choć w tym konkretnym przypadku sama domena jest dość młoda, więc mogła nie wypracować sobie odpowiedniej „opinii”),

8 października 2018 r. – Aktualizacja niepotwierdzona

Google oficjalnie nie potwierdził tej aktualizacji, ale w tym okresie odnotowano wyraźne wahania widoczności:

Wygląda to na standardowy roll-out, który koryguje efekt sierpniowych zmian. Wdrożenie nowych rozwiązań przy okazji „Medyka” najwidoczniej nie przyniosło oczekiwanych efektów, a niektóre ze stron niezasłużenie obniżyły swoją widoczność w wynikach wyszukiwania.

Wnioski:

  • (Wzrosty) Apteki, które odzyskały widoczność utraconą w wyniku wcześniejszej aktualizacji wykazywały się dobrymi praktykami SEO,
  • (Wzrosty) 3/4 aptek, które wzrosły w sierpniu, utrzymały swój poziom widoczności w październiku (aptekagemini.pl spadła o 9%, jednak i tak notowała o wiele lepszy wynik niż w lipcu)
  • (Wzrosty) „Zielone apteki” prowadziły aktywne blogi i w większości przypadków były to treści pisane przez autorów z doświadczeniem medycznym,
  • (Spadki) Jedyną apteką, która odnotowała wzrosty w sierpniu (wówczas +12%), a teraz zanotowała spadek była cefarm24.pl (teraz -21%), która wykazuje jednak pewne braki optymalizacyjne. Co warte podkreślenia, posiada dość mocny profil linków,
  • (Spadki) Apteki, które posiadały wówczas blogi w subdomenie (cefarm24.pl oraz aptekaolmed.pl) zanotowały wyraźne spadki widoczności (odpowiednio -21% i -33%),
  • (Spadki) Jedyne apteki, które zanotowały spadek zarówno w sierpniu jak i w październiku to wapteka.pl oraz aleleki.pl. Warto tu jednak zaznaczyć, że wapteka.pl notowała wówczas spadek w zdecydowanie szerszym okresie, ponieważ trwał już od roku. Natomiast aleleki.pl wykazywały wyraźne braki SEO (nawet w tak kluczowych kwestiach jak optymalizacja tagów title i nagłówków H1 pod frazy)

Serwisy contentowe

Ta aktualizacja to dobry moment na dodanie do analiz kolejnego rodzaju stron, czyli serwisów contentowych. One również odnotowywały w tym okresie wyraźne wahania. Co warte podkreślenia, w przypadku tych serwisów, do analiz musiałem dodać kolejną datę, ponieważ – w odróżnieniu od aptek – portale zanotowały wyraźne zmiany również w okolicach 29.10.2019 – 12.11.2019 r.

Tab. Statystyki serwisów contentowych na przestrzeni 3 aktualizacji. Ostatnia z nich (29.10 – 12.11) dotknęła głównie portali contentowych, pomijając apteki.

Ta „dodatkowa” aktualizacja wygląda jak dopełnienie aktualizacji z 8 października, a wzrosty uzyskane przez portale to wypełnienie luki po spadkach aptek. W tym celu prezentuję porównanie danych z 24.09 oraz 12.11:

Co daje obraz tego, jak spadek widoczności aptek, pokrył się ze wzrostami tego typu portali opartych głównie na treściach.

Wnioski:

  • (Spadki) zdrowie.radiozet.pl jako jedyne zanotowało spadek, jednak trwał już od sierpnia i sama aktualizacja nie miała na niego większego wpływu,
  • (Wzrosty) W przypadku dwóch serwisów (zdrowie.tvn.pl oraz medme.pl) była ta to korekta do widoczności sprzed „Medyka”
  • (Wzrosty) Wzrosty uzyskane przez portale contentowe to konsekwencja spadków aptek w zakresie treści poradnikowych,

Podsumowanie

Widać, że była to typowa korekta. Apteki, które niesłusznie „oberwały” w sierpniu, teraz zanotowały wzrosty, które będą trwały dość długo. Google oficjalnie nie potwierdził tej aktualizacji, co może w pewnym stopniu nakierować nas na to, że wdrażano jedynie korekty względem poprzedniej.

Wydaje się, że sam profil linków nie miał tu zbyt wiele znaczenia, ale optymalizacja techniczna, rzetelność bloga oraz reputacja autorów, jak najbardziej. Zmiany dotyczyły głównie fraz sprzedażowych, choć w przypadku poradnikowych również widać pewne rotacje. Serwisy contentowe odnotowały głównie wzrosty, choć nastąpiły one trochę później niż miało to miejsce w przypadku aptek. Można wyciągnąć wniosek, że sierpniowa aktualizacja przyniosła na tyle nieoczekiwane efekty, że ich korygowanie trwało aż do listopada. 

March 2019 Core Update — 12 Marca, 2019

Marcowa aktualizacja była odczuwalna na wszystkich rodzajach stron, a znacząca część aptek, które zanotowały mocne spadki w październiku, teraz odnotowały zdecydowanie lepsze wyniki, co obrazują poniższe wykresy widoczności w TOP10:

Największe apteki zareagowały na te zmiany zdecydowanie najgorzej, notując spadki, bądź bardzo niewielkie wzrosty:

Wyjątkiem jest tu apteline.pl, które jednak notowało wzrosty w szerokiej perspektywie i sama aktualizacja nie miała na nie większego wpływu. Spadki większych stron są o tyle istotne, że Google oficjalnie przekazało dokładnie taki komunikat:

(Powyższy Tweet pochodzi z 2018 roku, jednak w marcu 2019r. potwierdzono, że cały czas jego treść jest aktualna). Wpisuje się to oczywiście w powyższe statystyki. Czy podobna sytuacja miała miejsce w przypadku serwisów contentowych?

Jak widać – tak. Nie wyciągajmy tu jednak wniosku, że wzrosty dotyczyły wyłącznie mniejszych stron. Raczej jest to ciekawostka, choć pewną regułę da się dostrzec.

Analiza fraz

Dokładniejszej analizie poddałem frazy aptekaolmed.pl, która odnotowała największy procentowy wzrost oraz poradnikzdrowie.pl notujący wyraźny spadek.

#Poradnikzdrowie.pl

Spadkom podlegały zarówno frazy typowo poradnikowe, jak i te o charakterze produktowym:

Idąc dalej, przeanalizowałem 50 najpopularniejszych fraz, dla których aktualnie rankuje sekcja www.poradnikzdrowie.pl/zdrowie/apteczka/ i jak frazy te zachowywały się w okresie tej aktualizacji. Warto tu zaznaczyć, że sekcja ta zawiera w dużej mierze frazy produktowe (opisy leków). Wniosek był zaskakujący bo aż 45 z nich odnotowało wyraźny spadek. Pozostałe 5 zachowało swoje miejsce bez większych wahań. Aż 10 z nich wypadło poza TOP10, a kilka dodatkowych oscylowało w okolicach 8-10 pozycji, notując 2-8 oczek spadku.

Analizie poddałem również kilka innych sekcji i te o charakterze poradnikowym odnotowały zdecydowanie korzystniejsze efekty. Większego znaczenia nie miał tutaj poziom „medyczności” danej sekcji, jednak w niektórych przypadkach można było zauważyć większe zmiany. Dla przykładu, w sekcji „alergie” spadki odnotowano dla 38 fraz, jednak tylko 2 wypadły poza TOP10. Natomiast dla „diety i żywienie” spadek dotknął 24 fraz i żadna z nich nie spadła poza TOP10.

#AptekaOlmed.pl

W tym przypadku temat jest dość prosty bo blog znajdował się na subdomenie i nie generował praktycznie żadnej widoczności. Oczywistym więc jest fakt, że wzrosty uzyskały frazy produktowe i w pewnej mierze był to powrót tych, które spadły w wyniku poprzedniej aktualizacji (jednak wiele z nich zanotowało o wiele wyższe pozycje niż poprzednio). Poniżej kilka przykładów:

Warto zauważyć, że pojawiły się wyraźniejsze zmiany odnośnie intencji zapytań, poniżej przykład dla jednej z tych fraz:

Spadek artykułu poradnikzdrowie.pl i wzrost strony kategorii aptekaolmed.pl to pewien wzór, który powieli się w szerszej skali w przyszłości.

#Serwisy eksperckie

Przy okazji tej aktualizacji mocniej skupię się na serwisach mniejszych, lecz prowadzonych rzetelnie, bardzo często w oparciu o autorów z doświadczeniem medycznym. W marcu zaobserwowałem początek pewnego trendu (po części widocznego już od sierpnia), który obrazuje poniższa fraza:

Endokrynologia.net to serwis opisujący zagadnienia związane z wąską działką medycyny, prowadzony przez doktora medycyny, specjalistę chorób wewnętrznych. Co prawda kiedyś posiadał już wysokie pozycje dla tej frazy (przed marcem 2018r.), jednak z jakiegoś powodu Google uznał, że teraz przywraca mu TOP3 (był poza TOP20), a PoradnikZdrowie.pl spadnie z 1 miejsca na 7. Co istotne – w październiku sytuacja znowu ulegnie korekcie i PoradnikZdrowie wróci na wysokie miejsce, a Endokrynologia.net utrzyma się w TOP10. Pokazuje to jednak wyraźne zmiany, które zachodzą w SERP-ach. Zmiany, które wg mnie cały czas są wynikową precyzowania w jaki sposób odróżnić artykuł wartościowy od całej puli artykułów próbujących być specjalistycznymi, wykorzystując do tego wskaźnik E-A-T. 

Do całościowych analiz wybrałem 25 serwisów, które w wielu przypadkach spełniały poniższe założenia:

  • autorzy z doświadczeniem/tytułem medycznym lub okołomedycznym
  • mniejsze serwisy, które do tej pory nie potrafiły przebić się w Google (w marcu posiadały max. 5.000 fraz w TOP10)
  • w serwisach często skupiano się na wąskiej tematyce
  • często publikowano wywiady ze specjalistami
  • artykuły w dużej mierze posiadały źródła medyczne
  • Za niektórymi serwisami stoi wyłącznie jedna osoba, a treść strony wyraźnie to sygnalizuje,

Ich zmiany widoczności w marcu przedstawiały się następująco:

Na samym końcu artykułu przedstawię wykresy wszystkich tych domen, co jeszcze bardziej zobrazuje procesy, które ostatnio zachodzą w wynikach wyszukiwania. W tym miejscu chciałbym jedynie zasygnalizować pewien trend, który trwał będzie po dziś dzień. Czyżby zapowiedzi Google o promowaniu niedocenionych serwisów sprawdziły się, a w wskaźnik E-A-T ma tu wyraźne zastosowanie? Jest na to duża szansa.

Wnioski:

  • (Spadki) Spadki portali po części wynikają ze spadków fraz produktowych. W serwisach mocno skupiających się na opisywaniu leków, można odczuć związane z nimi spadki. Istniało również wiele fraz, dla których portale straciły pozycje na rzecz aptek oraz mniejszych serwisów contentowych,
  • (Spadki) Największe strony odnotowały spadki lub zachowały się bardzo stabilnie,
  • (Wzrosty) Mniejsze apteki odnotowały wyraźnie korzystniejsze wyniki, notując wyłącznie wzrosty
  • (Wzrosty) 6 na 8 aptek, które zanotowały spadek w październiku, teraz odnotowały wzrosty. Co więcej, większość z nich zanotowała wyraźne wyższy poziom widoczności niż przed poprzednią aktualizacją
  • (Wzrosty) W przypadku dużych serwisów contentowych, wzrosty odnotowały wyłącznie mniejsze z nich.
  • (Wzrosty) Serwisy eksperckie odnotowały rewelacyjne wyniki i warto przyjrzeć im się dokładniej przy okazji kolejnych aktualizacji

Podsumowanie

Marcowa aktualizacja była bardzo głęboka i widać, że jeszcze mocniej zaczęto skupiać się na intencji zapytań i eksperckości serwisu. Zgodnie z zapowiedzią Google, docenione zostały mniejsze strony (bez względu na ich charakter). Wydaje się, że najmocniejszym zmianom uległy frazy sprzedażowe, co zaowocowało wzrostami aptek. Potwierdza to również wypowiedź Łukasza Walczuka z Doz.pl (do przeczytania tutaj), który odnotował spadki stron produktowych oraz stabilność artykułów. Doz stawia na treści wysokiej jakości, co potwierdza również to, że Google mocno brał pod uwagę ogólnie pojętą eksperckość serwisów i samych treści.

Zmiany były jednak znacznie szersze i od tej pory mocniej zauważyć można, że dla niektórych zestawów fraz występuje swego rodzaju roszada serwisów i coraz częściej spotyka się przypadki, w których apteki rotują z portalami, a portale z aptekami. Ponadto, do gry coraz mocniej wchodzą mniejsze strony, skupiające się na pewnej niszy i jest to proces, który warto obserwować. Duże portale, które teraz odnotowały spadki ważnych fraz, odbudują je dopiero we wrześniu! Dla przykładu:

Apteki, które prowadzą blogi na subdomenie (i nie generują znacznej widoczności), odnotowały wyraźne wzrosty, co potwierdza, że mocne przetasowania zaszły w kwestii fraz produktowych. Poniżej wycinek tabeli, który przedstawia TOP4 aptek pod kątem procentowego wzrostu:

W tym gronie znalazły się również cefarm24.pl oraz e-zikoapteka.pl, które odznaczają się mocnymi profilami linków, pod kątem liczby odnośników z wysokim wskaźnikiem URL Rating, co jest jednym z istotnych czynników wpływających na zaufanie do strony. Warto również zaznaczyć, że Apteka Olmed od lutego prowadziła intensywne działania z zakresu link building (wzrost linkujących domen z 240 do 330 w ok. miesiąc), co mogło wpłynąć na tak znaczący wzrost.

Ponadto, w przypadku aptek wskazanych w powyższej tabeli (czyli TOP4 aptek pod kątem procentowego wzrostu), aż 3 z nich zanotowały korektę, która przywróciła je do dynamiki wzrostu notowanej jeszcze przed marcową aktualizacją:

Jest to pewien argument mówiący o tym, że marzec po części korygował aktualizację z października, głównie dla aptek operujących bez blogów oraz cechujących się stosunkowo mocnym profilem linków. W październiku najprawdopodobniej zostały zbyt surowo potraktowane za E-A-T, co zostało naprawione przy tej okazji. Warto podkreślić, że apteki te, z reguły posiadają pewne braki optymalizacyjne, co może świadczyć o tym, że marcowa aktualizacja bardziej skupiała się na reputacji niż na kwestiach optymalizacyjnych.

June 2019 Core Update — 3 Czerwca, 2019

Kolejna poważna zmiana algorytmu, która zatrzęsła analizowanymi stronami. W podsumowaniu marca wspomniałem o tym, że coraz większe znaczenie odgrywają mniejsze serwisy i w tym przypadku mamy tego potwierdzenie. Na początek jednak tabela z wynikami aptek.

W sieci pojawiły się głosy, że czerwiec to korekta marca (brzmi znajomo?), w którym zbyt mocno skupiono się na autorytecie strony – powyższa tabela częściowo to potwierdza. Dla przykładu apteki z TOP4 marcowych wzrostów (cefarm24.pl, aptekaolmed.pl, aleleki.pl oraz e-zikoapteka.pl), teraz jako jedyne zanotowały spadek. Co je wyróżniło? Fakt posiadania blogów w subdomenie oraz anonimowość autorów artykułów. Ponadto wyraźnie gorzej radziły sobie strony wykazujące braki techniczne i optymalizacyjne.

W przypadku dużych portali contentowych najlepiej poradziły sobie te, wyróżniające się posiadaniem ekspertów (mp.pl) oraz ponadprzeciętną kondycją techniczną SEO (medme.pl). Zdecydowanie najkorzystniej wypadło medme.pl, które uzyskany wówczas wzrost utrzymuje po dziś dzień.

Patrząc na dane z tabeli zyskujemy kolejny argument za tym, że marzec zbyt mocno skupiał się na autorytecie autorów, a teraz nastąpiła w tym zakresie pewna korekta.

Wnioski:

  • (Spadki) Spadki w dużym stopniu dotknęły serwisów „eksperckich”, jednak i tak uzyskiwały wyższy poziom widoczności niż przez marcową aktualizacją (7 z 10 serwisów). Sugeruje to w pewnym sensie, że czerwiec był korektą marca, jednak w uzasadnionych przypadkach, spadki nie były całkowitym powrotem do widoczności z marca, a jedynie pewną korektą
  • (Spadki) Spadki zdecydowanie częściej dotykały stron posiadających pewne braki optymalizacyjne
  • (Wzrosty) Na aktualizację zdecydowanie lepiej zareagowały serwisy poprawne technicznie i optymalizacyjnie
  • (Wzrosty) Można zaobserwować pewną korelację pomiędzy wzrostami a faktem korzystania z usług specjalistycznych copywriterów medycznych. Dla przykładu, poniżej prezentuję tabelę z oceną aptek na podstawie doświadczenia medycznego autorów oraz ilości wzmianek o tych osobach w TOP10 wyników Google (kolumna „Domena” – im bardziej „zielona” apteka, tym wyższa ocena):

Podsumowanie

Czy to oznacza, że jakość domeny wyznaczała tu tylko kwestia autorów? Nie tylko. Ogólną jakość serwisu można tu określić również poprzez wiele parametrów technicznych, a sam fakt korzystania z usług specjalistów świadczy o tym, że apteka bardzo poważnie podchodzi do tematu SEO, dbając również o wiele innych jego aspektów. Apteki ze zbyt „luźnym” podejściem do optymalizacji, zanotowały w dużej mierze spadki.

Warto zauważyć, że mniejsze znaczenie miała tutaj kwestia linków – w przeciwieństwie do marca. W marcu linki odgrywały znaczącą rolę i stronom posiadającym pewne braki SEO pozwoliło to osiągnąć w tamtym okresie znaczące wzrosty, które zostały skorygowane już w czerwcu. Jednak w dalszym ciągu osiągały zdecydowanie korzystniejsze wyniki niż przed marcową aktualizacją.

Od marca widać było wyraźne ukierunkowanie na określanie czym jest serwis ekspercki, a wskaźnik E-A-T znajdował coraz większe odzwierciedlenie w widoczności (a tak po prawdzie to delikatnie było to podkreślone już w sierpniu podczas „Medyka”). Po obu ostatnich aktualizacjach można zauważyć, że pozytywniejsze wyniki zanotowały serwisy posiadające specjalistycznych copywriterów oraz cieszących się zaufaniem użytkowników.

Ciekawostka: pod koniec 2018 roku, apteka Allecco.pl mocno przebudowała swoją strategię i oprócz reorganizacji serwisu, zaangażowała się w rzetelne prowadzenie bloga, czego efektem było nawiązanie współpracy z uznanymi medycznymi copywriterami oraz uruchomienie sekcji z autorskimi treściami wideo:

Dla przykładu, jedna z ekspertek widocznych na zrzucie ekranu powyżej znana jest z programów telewizyjnych i wzmianki o niej znajdziemy w wielu branżowych serwisach.

Dlaczego przedstawiam zmiany, które zaszły w Allecco? Czerwiec to pierwszy miesiąc, w którym odnotowało wyraźny wzrost widoczności, skorygowany dopiero we wrześniu:

Czy wpływ na to miała wspomniana zmiana strategii? Zapewne tak, jednak nie możemy zapomnieć, że równocześnie usprawniono kilka innych elementów strony. Jest to jednak pewien sygnał pokazujący, że warto czasami zatrzymać się i przeanalizować swój serwis. Odświeżenie podejścia do projektu może w szerszej perspektywie wyjść na duży plus.

„Maverick” – 12 lipca 2019 r

Tej aktualizacji nie wymieniałem na samym początku artykułu, ponieważ nie wpłynęła na szerszą liczbę badanych stron. Owszem, można było zauważyć w tym okresie drobne wahania widoczności, ale nie większe niż zazwyczaj. Istnieją jednak dwie strony, na które chciałbym zwrócić szczególną uwagę, czyli MamaGinekolog.pl oraz Endokrynologia.net:

Maverick update - aktualizacja algorytmu Google

Liczbowo przedstawia się to następująco:

Powyższe spadki są o tyle zaskakujące, że wyglądają tak, jakby z serwisami działo się w tym momencie coś niedobrego od strony technicznej – jednak żadnych poważnych problemów tego typu nie odnotowałem. Co więcej, posiadamy rzetelne informacje świadczące o tym, że w tym czasie (oraz na długo wcześniej) na jednej ze stron nie wykonywano żadnych działań i nie odnotowano żadnych problemów serwerowych.

Oba serwisy prowadzone są w bardzo rzetelny sposób i nie posiadają rażących błędów technicznych. To, co je łączy to fakt, że stoją za nimi pojedyncze osoby:

  • endokrynologia.net: dr med. Jacek Belowski, endokrynolog, specjalista chorób wewnętrznych
  • mamaginekolog.pl: Nicole Sochacki-Wójcicka, ginekolog-położnik w trakcie specjalizacji. Skończyła I Wydział Lekarski Warszawskiego Uniwersytetu Medycznego

Największą różnicę zaobserwować można w kontekście widoczności w social mediach:

Jak więc wytłumaczyć spadek, który „wyciął” te serwisy praktycznie do zera? Wg mnie jest to kolejny etap testowania podejścia do treści specjalistycznych i w tych konkretnych przypadkach, dość poważny błąd algorytmu, który zostanie naprawiony przy okazji wrześniowej aktualizacji. 

September 2019 Core Update — 24 Września, 2019

W tym okresie coraz więcej mówiło się o tym jak mocne zmiany zachodzą w wynikach wyszukiwania i podawano kolejne przypadki fraz, dla których wcześniej wyświetlano głównie strony sprzedażowe, a teraz pojawiły się w ich miejsce artykuły. To dość znaczący rozdział w dokładniejszym rozumieniu intencji zapytań zadawanych do wyszukiwarki i treści stron.

Warto podkreślić, że ta aktualizacja była stosunkowo długa lub podzielona na dwa mniejsze etapy. W praktyce wyglądało to następująco:

W zdecydowanej większości przypadków druga część aktualizacji pogłębiała pierwszą – jeśli strona spadła, spadała dalej. Dla ułatwienia, poniższe dane uwzględniają cały ten okres jako jeden zbiorczy:

Wyraźnie widać, że apteki z aktywnymi blogami miały ciężkie dni i odnotowywały znaczące spadki. Co więcej, warto podkreślić, że dla kilku aptek była to bardzo mocna korekta za czerwiec, co widać poniżej:

Korekta znacznie zniwelowała czerwcowe wzrosty, sprawiając, że jedynie kilka aptek odnotowało znaczące wzrosty w tak szerokim okresie. Zdecydowanie lepiej radziły sobie serwisy bazujące na treściach:

Co ciekawe, spadki zanotowały jedynie serwisy, które jako jedyne zyskały na aktualizacji w lipcu, czyli mp.pl (wówczas 30% wzrostu) oraz medme.pl (wówczas 60% wzrostu). Tak więc i tak notowały zdecydowanie korzystniejsze wyniki niż przed czerwcowymi zmianami.

Grupą, która mocno zyskała na zmianach są również serwisy eksperckie:

Największe wzrosty uzyskały mamaginekolog.pl oraz endokrynologia.net jednak wynika to ze spadku opisanego we wcześniejszym rozdziale. Oczywiście „eksperckość” nie była tu absolutnym wyznacznikiem osiągniętych efektów, a kilka z analizowanych serwisów odnotowało wyraźne spadki.

Wnioski:

  • (Spadki) Spadki w dużym stopniu dotknęły apteki, które mocno awansowały w poprzednich aktualizacjach
  • (Spadki) Znaczna część spadków aptek to korekta za czerwiec, która spowodowała, że jedynie nieliczne z nich zanotowały w wzrost w okresie czerwiec-październik
  • (Spadki) Spadki aptek zaowocowały wzrostami serwisów contentowych
  • (Wzrosty) Wzrosty odnotowały jedynie te apteki, które posiadają blogi w subdomenie. Niestety, patrząc na okres czerwiec – październik, odnotowały niewielki spadek,
  • (Wzrosty) Kolejny raz serwisy eksperckie wykazały, że Google ma wobec nich głębsze plany i znowu „zamieszał” ich widocznością. Tym razem – podobnie jak w marcu – wiele z nich zanotowało wyraźne wzrosty

Podsumowanie

Zmiany pozycji aptek dotknęły każdego rodzaju fraz – zarówno tych dedykowanych produktom, kategoriom jak i artykułom blogowym. Jednak zdecydowanie najmocniej zareagowały artykuły. W przypadku niektórych aptek zmiany te były dość poważne i ich poziom widoczności cofnął się o kilka miesięcy. W konsekwencji spadków aptek, znaczące wzrosty odnotowały serwisy oparte na contencie, ze szczególnym wyróżnieniem serwisów eksperckich. Wskażnik E-A-T kolejny raz odegrał znaczącą rolę, dając większy „kawałek branżowego tortu” serwisom eksperckim.

Ostatnie dni

W listopadzie również odczuliśmy pewne zmiany pozycji, jednak nie wpłynęły znacząco na wnioski płynące z całego obrazu sytuacji. Widać pewne zmiany, np.: wyraźny powrót widoczności dla matkaaptekarka.pl:

Jednak nie będę poświęcał tym zmianom zbyt wiele uwagi. Analizy kosztowały mnie bardzo dużo czasu, a chciałbym już pomału kończyć ten tekst 🙂 Przejdę więc do wniosków końcowych oraz mojej opinii na temat zmian zachodzących w Google.

Wnioski końcowe i moja opinia na temat zmian zachodzących w Google

Od czasu wdrożenia „Medyka” nie sposób oprzeć się wrażeniu, że Google jest bardzo kapryśny, niezdecydowany i często niesprawiedliwy. Właściciele serwisów rwą sobie włosy z głowy w momencie, gdy aktualizacja algorytmu wyraźnie obniża widoczność ich oczka w głowie. W głowie pojawiają się myśli o tym, że być może sama koncepcja serwisu wymaga poprawy, lub w jakimś elemencie mocno odstaje od konkurencji. Mija jednak kilka miesięcy, pojawia się kolejna aktualizacja i widoczność wraca do swojego poziomu – „niesamowite, jednak moja strona nie jest taka zła!” Takich historii w ostatnim roku było więcej niż nam się wydaje. Na pierwszy rzut oka wydaje się to bardzo niepokojące i mogą pojawiać się głosy, że nie należy robić nic, bo i tak wynik zależy od humoru Google. Nic bardziej mylnego. Owszem, w ostatnich miesiącach zdarzają się sytuacje, w których widoczność tracą bardzo dobre serwisy. Niemniej, w całym tym zamieszaniu widać pewną drogę, która jest na etapie wytężonej budowy. Musimy jednak pamiętać, że niektóre budowy wiążą się z tym, że w pewnym momencie musimy skorygować coś, co robiliśmy jeszcze tydzień temu, bo inaczej nie osiągniemy spodziewanego efektu. Postawienie na Machine Learning (od czasów wdrożenia Rank Brain) powoduje, że algorytm cały czas uczy się tego jak prezentować wyniki wyszukiwania, a każda kolejna aktualizacja przynosi nowe dane, które są następnie analizowane i wdrażane w życie. Po ich wdrożeniu, cykl powtarza się:

„All learning that RankBrain does is offline, Google told us. It’s given batches of historical searches and learns to make predictions from these. Those predictions are tested, and if proven good, then the latest version of RankBrain goes live. Then the learn-offline-and-test cycle is repeated.”

Źródło: https://searchengineland.com/faq-all-about-the-new-google-rankbrain-algorithm-234440

Proces ten znacznie przybrał na sile od sierpnia 2018 roku, gdy do dokładniejszego rozumienia intencji zapytań i treści stron zaczęto używać metod Neural Matching oraz mocniej uwzględniać kwestię E-A-T. Wg mnie, właśnie te połączenie powodowało tak znaczące zmiany widoczności serwisów. Oczywiście ogólne zasady SEO pozostają bez większych zmian, jednak wydaje się, że mocniejsze skupienie na kwestiach wymienionych wyżej spowodowało tak znaczące zmiany widoczności serwisów.

Ogólny obraz wyłaniający się z omawianych aktualizacji

Nie jest przypadkiem fakt, że każda większa aktualizacja następuje w dość stałych cyklach, które są okresem wytężonej analizy danych. Wynikiem tych analiz wydaje się być mocniejsze postawienie na promowanie serwisów eksperckich. A może inaczej – efektem jest coraz dokładniejsza umiejętność odnalezienia takich treści. Dzięki temu, wyniki wyszukiwania przejawiają coraz większą wartość dla użytkowników i robią kolejny krok do realizacji misji, którą Google określił lata temu, czyli dostarczenie użytkownikom jak najtrafniejszych wyników wyszukiwania.

„Niezdecydowanie” algorytmu

Interesującą kwestią jest fakt „niezdecydowania” kolejnych aktualizacji, które dla niektórych serwisów są prawdziwą kolejką górską. Zdarza się, że po każdej kolejnej aktualizacji widoczność strony ulega gwałtownym zmianom, aby w szerszym kontekście znaleźć się tam, gdzie była przez początkiem aktualizacji. Jednak nie każdy serwis reagował podobnie, a bez problemu znajdziemy wiele stron, które w kontekście całego roku osiągnęły rewelacyjne wzrosty lub gigantyczne spadki. Wygląda to jak ciągły proces nauki i doskonalenia algorytmu, który powoli udoskonala SERP-y. Jeśli Twoja strona w dłuższej perspektywie wychodzi na zero, może to oznaczać, że Google ma z nią pewien problem i w pewnych elementach docenia, ale w innych karze.

Co autor zapytania miał na myśli?

Co warte podkreślenia, wpływ na zmiany widoczności w dużej mierze miały również zmieniające się SERP-y. Od pewnego czasu mogliśmy zaobserwować, że frazy, dla których do tej pory zwracano produkty, teraz zwracają w dużej mierze artykuły i wypowiedzi ekspertów. Nie sposób oprzeć się wrażeniu, że jest to wynikowa udoskonalania algorytmu, który cały czas dostosowuje SERP-y. W wyniku tych testów, przy niektórych aktualizacjach zyskiwały głównie apteki (frazy sprzedażowe zaczynały „rządzić” w wynikach), aby przy kolejnej stracić widoczność na rzecz serwisów opartych na treściach. Jest to jeden ze znaczących czynników, który powodował tak odczuwalne zmiany widoczności. Czy dzięki temu wyniki wyszukiwania stają się przydatniejsze dla użytkownika? Nie mnie to oceniać, ale połączenie intencji zapytań z lepszym określaniem zaufanych stron i rozumieniem treści może okazać się ciekawym połączeniem. Wyobraźmy sobie, że poszukujemy informacji na temat konkretnej choroby i w TOP10 pojawiają się jedynie wielkie portale, w których każdy tekst wygląda podobnie. W sumie bez znaczenia, który z nich otworzysz, każdy przekazuje mniej więcej to samo. Czy nie chcielibyście poczytać opinii eksperta, który prowadzi serwis w wąskiej tematyce i zna się na danym zagadnieniu lepiej niż autor piszący kilka tekstów dziennie, głównie opierając się na encyklopedii? Z pewnością mniejsze serwisy nie opanują SERP-ów w znaczącym stopniu, ale jeśli dla nurtującego mnie pytania znajdę wynik, który budzi moje zaufanie bardziej niż serwisy stawiające na masowe tworzenie treści, chętnie się mu przyjrzę.

Kto wygrał, a kto stracił? Zarys sytuacji

Wśród największych wygranych dostrzec można, że strony te stawiały na jakość – zarówno pod kątem technicznym, contentowym jak i posiadające mocne, tematyczne profile linków. Analizując cały rynek aptek (tak, mamy na oku więcej niż tylko 15 najmocniejszych) można zauważyć, że ostatnie kilkanaście miesięcy przyniosło wzrosty wielu z nich. Pojawia się więc pytanie „kto w takim razie stracił, skoro większość aptek zwiększyła swoją widoczność?”

  • Wzrosty odniosły raczej te większe apteki, które mocniej „bawią się” w SEO, natomiast mniejsze apteki notowały dość często spadki
  • Wydaje się, że wycięto widoczność stron niższej jakości, ze szczególnym uwzględnieniem „martwych”, nastawionych wyłącznie na kupno linków oraz posiadających treści niskiej jakości
  • Wśród większych stron spadły te, które nie przykładały większej uwagi do treści wysokich jakości, kwestii optymalizacyjnych oraz profilu linków. Co warte podkreślenia, czasami tylko jeden z tych trzech czynników mógł wpłynąć na słabsze wyniki

Co robić skoro Google twierdzi, że nie możesz zrobić nic?

Nagłówek jest delikatnie przesadzony, ponieważ Google umieścił taką informację głównie pod kątem prac nad lepszym rozumieniem intencji zapytań. Na przykładzie BERT-a, aktualizacja ta nie karze, ani nie nagradza konkretnych stron. Zmianie ulega po prostu rozumienie słów kluczowych, dzięki czemu są one bardziej dopasowane do tego, czego szuka użytkownik. I jest to po części prawda, bo skoro dla konkretnego zapytania zaczęły pojawiać się głównie produkty zamiast artykułów, to trudno abyś zrobił z serwisu contentowego sklep. Nie zapominajmy jednak o pozostałych aspektach SEO, bo one również odgrywały w tym czasie ogromną rolę. Jeśli Twój serwis wpadł w aktualizacyjny roller coaster, przemyśl swoją strategię, poszukaj elementów, które możesz usprawnić, zwiększ zaufanie do witryny, zadbaj o czytelną i przejrzystą nawigację, odśwież szablon w celu poprawienia doświadczeń użytkowników. Mówiąc ogólnie, spójrz na serwis okiem swojego użytkownika i odpowiedz sobie na pytanie co mógłbyś zrobić, abyś pewniej czuł się na stronie i nie miał problemów z nawigowaniem po niej. Dodatkowo przyjrzyj się czy do indeksu Google dostarczasz wyłącznie wartościowe adresy. Być może warto wykluczyć z indeksowania niektóre niepotrzebne rodzaje stron, które nie przejawiają większej wartości dla użytkownika.

Jak budować E-A-T? Wskazówki na bazie analizowanych stron

Dla stron z branż YMYL Google stosuje podwyższone standardy oceny, a kwestia E-A-T jest dla nich szczególnie istotna. Google nie chce promować stron, które dzielą się nierzetelnymi poradami, opiniami lub potencjalnie fałszywymi informacjami. Chcą mieć jak największą pewność, że polecają witryny o wysokim poziomie wiedzy, autorytetu i wiarygodności – to właśnie oznacza EAT. Na czym skupić się, aby Google uznał serwis za godny zaufania? Budowanie autorytetu całej domeny wymaga czasu i nie zrobi się tego w krótkim czasie. Rozpoczynając projekt od zera, należy uzbroić się w cierpliwość, aż wszystkie klocki SEO poukładają się w logiczną całość, a Google zobaczy, że działania prowadzone są rzetelnie i w szerszej perspektywie czasu. Wskazówki E-A-T zostały opisane już wielokrotnie, więc tutaj przedstawię jedynie te, które wydają się istotne w kontekście omawianych stron:

  • Jeśli prowadzisz stronę w pojedynkę, podkreśl dlaczego uważasz się za eksperta, wyeksponuj swoje osiągnięcia i doświadczenie. Przedstaw się jako osoba godna zaufania
  • Linki z tematycznych serwisów branżowych są dość istotne w kontekście budowania eksperckości. Analizy wykazały, że strony wyróżniające się linkami z wysokim wskaźnikiem URL Rating zdecydowanie częściej osiągały pozytywniejsze efekty.
  • Odnośniki z unikalnych domen – symptomatyczne było to, że apteki posiadające linki z unikalnych stron (czyli stron, które linkowały tylko do jednej/max. 2-3 aptek), osiągały pozytywniejsze efekty od innych. Czy ktoś zwrócił uwagę na stały wzrost apteline.pl i ich odporność na aktualizacje? Podczas analizy 50 najmocniejszych linków każdej z aptek, jako jedyna posiadała aż 20 na 50 tego typu odnośników (przy zachowaniu wysokich statystyk tych stron). Oczywiście nie jest to jedyny czynnik ich sukcesu, bo mocno pracowano tam również nad contentem i optymalizacją, ale inne apteki odnoszące wzrosty w całym roku analiz, również wykazywały się dość znaczącą liczbą unikalnych linków,
  • Linki nofollow – nie bój się ich w swojej strategii. Analizując najmocniejsze odnośniki aptek, które uzyskały najlepsze efekty, można zauważyć, że znaczna część z nich to właśnie linki nofollow. Nie bez kozery Google jakiś czas temu zaczął je oficjalnie wliczać do swojego rankingu i jak najbardziej ma to sens. Fakt dodania atrybutu nofollow nie oznacza, że link jest kupiony. Wiemy, że w praktyce mało kto dzieli się linkiem follow, a zdecydowana większość bezpłatnych wzmianek oznaczana jest jako nofollow. Są to więc jak najbardziej wartościowe odnośniki
  • Wykorzystywanie zaufanych źródeł – jeśli do stworzenia tekstów wykorzystujesz zewnętrzne źródła, pokaż je. Postaw się w roli użytkownika – jeśli zobaczysz, że w przypisach pojawiają się źródła naukowe, zwiększasz szansę na to, że informacje w nim przedstawione są rzetelne i zgodne z prawdą,
  • Autorskie zdjęcia i wideo – niewiele jest stron, które idą w tym kierunku, jednak kilka z nich wyraźnie wyróżnia się na tle innych. W dalszej części podsumowania przedstawię jak robi to choćby PanTabletka.pl, który odnotował jeden z mocniejszych wzrostów, a kwestię Allecco.pl wspomniałem już wcześniej,
  •  Wzmianki w branżowych mediach i Social Mediach – nie chodzi tu jedynie o linki. Mówimy zarówno o wzmiankach bez odnośników, jak i o profilach w znanych serwisach typu ZnanyLekarz.pl. Co więcej, warto zainteresować się social mediami, a tworzenie profili i gromadzenie publiczności na Instagramie czy Twitterze może pomóc w budowaniu autorytetu,
  • Staraj się regularnie publikować treści. Podczas analiz spotkałem kilka ciekawych serwisów, które przestały publikować nowe treści (przerwa wynosiła ponad rok) przez co Google regularnie zmniejszał ich widoczność. Oczywiście nie jest to regułą, ale nie od dziś wiadomo, że martwe serwisy nie są zbyt mile widziane w SERP-ach,
  • Odpowiadaj na pytania użytkowników – jeśli opisujesz szersze zagadnienie, postaraj się odpowiedzieć na pytania, które potencjalnie może zadać osoba zainteresowana tematem. Postaw się w jej roli – szukając informacji na temat danej choroby, chcesz wiedzieć o niej wszystko bez chodzenia po wielu stronach,
  • Zatrzymaj użytkownika na dłużej – dzięki czemu zadbasz choćby o Bounce Rate. Zaplanuj odpowiednie linkowanie wewnętrzne, z uwzględnieniem linków kontekstowych z treści
  • Daj możliwość komentowania – aktywna społeczność to duży plus strony, a dając im możliwość wypowiedzi osiągniesz kilka celów – m.in. przyciągniesz użytkowników na dłużej i dasz Google sygnał, że serwis „żyje” i budzi zainteresowanie,
  • Zapytania brandowe – wzrost zapytań brandowych zadawanych do wyszukiwarki to dość istotny czynnik budujący autorytet strony. Planując nazwę serwisu warto mieć to na względzie. Później czeka Cię już „tylko” zwiększanie rozpoznawalności brandu poprzez profesjonalne treści oraz promowanie serwisu na każdy możliwy sposób,
  • Ogólnie pojęte bezpieczeństwo – czyli standard wymieniany po stokroć w innych artykułach, więc nie będę się tu zbyt mocno rozwodził. Wykorzystuj certyfikat SSL, pokaż dane kontaktowe, stwórz politykę prywatności itd.

Najwięksi wygrani od czasów „Medyka”

W tym punkcie przedstawię wybranych reprezentantów każdej z grup serwisów. Wybór nie zawsze jest oczywisty i w niektórych przypadkach podam stronę, która nie znalazła się choćby w TOP5 rankingu wzrostów, jednak wykazała się czymś, na co warto zwrócić szczególną uwagę.

Apteki internetowe

+ Apteline

Pamiętajmy, ze Apteline nie jest apteką, a hurtownią. Jednak zawartością nie różni się od innych aptek, a z racji tego, że wykazała się wyjątkową odpornością na aktualizacje, postanowiłem dodać ją do rankingu.

Od momentu delikatnego spadku odnotowanego 1 sierpnia 2018 roku, Apteline.pl odnotowywała stały wzrost widoczności, finalnie znajdując się na podium aptek internetowych pod kątem widoczności w TOP10. Na szczególną uwagę zasługuje odporność na negatywne skutki aktualizacji, na co wpływ miało kilka czynników:

  • Wysoki poziom optymalizacji technicznej
  • Starannie wdrażana strategia contentowa
  • Wysokiej jakości profil linków, ze szczególnym uwzględnieniem linków z unikalnych stron (które nie linkowały do innych aptek). To dość istotny czynnik, który miał wyraźny wpływ na sytuację. Dużym plusem Apteline jest fakt przynależenia do Grupy Neuca, przez co pozyskali wiele linków z serwisów takich jak: apteo.pl (ok. 33.000 linków), swiat-zdrowia.pl, ortopedio.pl czy mcm.med.pl

Co prawda w ostatnich tygodniach strona zanotowała pewien spadek, jednak zauważyliśmy dość istotne zmiany w jej strukturze, co mogło wpłynąć na taki stan rzeczy.

+ Doz, AptekaGemini oraz Apteka-Melissa.pl

A więc strony, które łącznie z Apteline zajmują miejsca w TOP4. Największych polskich aptek. Warte podkreślenia jest to, ze Apteka Melissa awansowała z 7 na 4 pozycję rankingu aptek, notując wzrost liczby fraz w TOP10 o 208% (z 21k na 65k). Doz oraz Apteka Gemini utrzymały swoje pozycje od czasów „Medyka”, jednak nie jest to kwestia przypadku. Obie te strony konsekwentnie realizują strategie SEO i widać, że sprawdza się to w praktyce.

+ Allecco.pl

Czarny koń zestawienia. Pod koniec 2018 roku na stronie zaszły znaczące zmiany techniczne oraz contentowe. Skupiono się na autorach z doświadczeniem medycznym oraz rozpoczęto tworzenie autorskich treści wideo. Jestem bardzo ciekaw jak Google potraktuje serwis w kolejnych miesiącach, choć już od czerwca widać, że sytuacja zmierza w bardzo dobrym kierunku.

Duże portale contentowe

+ Medme.pl

Z obowiązku muszę podkreślić, że od pewnego czasu Medme posiada również sekcję sprzedażową, jednak na moment tworzenia tego tekstu, nie posiada ona większej widoczności w Google.

Medme.pl to przykład serwisu, który pomimo nie najmocniejszego profilu linków, potrafił zagarnąć znaczną część branżowego tortu. Wdrożenie przemyślanej strategii contentowej spowodowało, że Google docenił pracę wykonaną na stronie i znalazło to odzwierciedlenie praktycznie przy każdej aktualizacji.

Serwisy eksperckie

+ PanTabletka.pl

W tej grupie stron wyróżnić można byłoby wiele z nich. Ja ograniczę się jedynie do PanTabletka.pl, który osiągnął w tym okresie rewelacyjne wyniki. Wzrosty rozpoczęte we wrześniu wcale nie dziwią biorąc pod uwagę, że:

Całość składa się na to, że serwis ten jest wartościowy dla internautów, a Google  uznał, że warto go promować (przynajmniej na ten moment) – E-A-T jest w tej sytuacji realizowany rewelacyjnie. Ciekawi mnie jego dalszy rozwój, jednak na ten moment stał się jednym z większych serwisów działających w swojej tematyce.

Czarny koń SERP-ów, czyli o serwisach eksperckich słów kilka

Artykuł ten nie ma na celu odkrywania Ameryki, jednak chciałem zwrócić uwagę na pewne procesy, które zachodzą na „niższych półkach” internetu. Zazwyczaj w analizach aktualizacji Google otrzymujemy informacje o zmianach widoczności wśród największych portali, a tak naprawdę, wiele dzieje się również na mniejszych stronach. Kto wie czy nie są to istotniejsze zmiany niż te zachodzące wyżej, a „maluchy” stały się swego rodzaju poligonem doświadczalnym. 

W historii wiele razy słyszeliśmy zapowiedzi, które później okazywały się kompletną nieprawdą. Przy okazji wdrażania kolejnych aktualizacji, często słyszeliśmy o tym, że „dobre treści się obronią” oraz „nie możecie nic zrobić, to po prostu zmiany wynikające z docenienia stron, które do tej pory nie były odpowiednio widoczne”. Słowa wypowiedziane w marcu 2018r. powtórzono potem również w marcu 2019r.:

Analizy serwisów przedstawione w całym artykule pokazują, że istnieje pewien trend potwierdzający te słowa, a mniejsze serwisy, które działały w sieci przez 2-3 lata, dopiero w 2019.03 odnotowały wyraźne wzrosty. Chciałbym tu jednak zauważyć, że wyklarowało się kilka grup takich stron:

  1. Ciągłe/Prawie ciągłe wzrosty – jeśli w marcu bądź w czerwcu strona zareagowała pozytywnie na aktualizację, później osiągała stałe wzrosty lub dostała delikatnej zadyszki w ostatnich tygodniach (jednak w dalszym ciągu pozostała na dużym plusie). Poniżej wykresy serwisów, które zachowały się dokładnie w taki sposób:

2. Duży plus, ale po odnotowaniu spadku – Drugą grupą serwisów są te, które od marca przeżyły wiele zmian i po drodze przytrafił im się przynajmniej jeden zauważalny spadek, ale finalnie pozostały na dużym/niewielkim plusie:

3. Wyraźne zmiany, suma na zero – kolejną grupą serwisów były te, które odnotowały mocne wahania widoczności, lecz finalnie nie odnotowały wyraźnych zmian na plus bądź minus:

4. Wyraźny spadek

Jak widać, nie wystarczy tworzyć serwisu wg zasady – znam się na tym, stworzę bloga i będę miał wzrosty. Absolutnie nie. Na sukces musi złożyć się wiele innych czynników, jednak cała powyższa analiza pokazuje, że Google cały czas „bawi się” w określanie czym jest serwis ekspercki i czy ich promowanie/osłabianie wpływa pozytywnie na SERPy i odczucia internautów. Serwisy te w wielu przypadkach odnotowywały wahania, które znacząco odbiegały od normy.

Dlaczego do analiz wybrałem właśnie te serwisy? 

Mówię oczywiście o tych z puli eksperckich. Niektórzy mogą powiedzieć, że przecież wiele z nich nadal posiada dość skromną widoczność. Owszem, nie zaprzeczam. Chciałem jednak podkreślić z jakimi wahaniami pozycji aktualnie się mierzą, i że nawet najmniejsze strony potrafią osiągnąć wysokie pozycje na bardzo konkurencyjne hasła – pod warunkiem tworzenia rzetelnych treści i zwracania uwagi na wrażenia użytkownika.

W rozdziale „Najwięksi wygrani od czasów Medyka” podałem kilka stron, które w tym okresie osiągnęły sukces. Jednak każda z nich wyróżniła się czymś, co przykuło moją uwagę:

Niektóre z tych serwisów zanotowały pewne zmiany struktury, lecz miało to miejsce najpóźniej pod koniec 2017 roku, a do marca/czerwca nie odnotowywały większych wzrostów z tytułu zmian dokonanych na stronie. Każdy z nich przedstawia pewną wartość dla użytkownika i zdaje się, że Google ma coraz więcej narzędzi, aby takie strony wyszukiwać i mocniej promować w SERP-ach. Artykuł ten ma podkreślić pewien trend, który przejawia się w tym, że mniejsze serwisy, które przedstawiają sobą pewną wartość mają szansę na uzyskanie wysokich pozycji w swojej niszy, a Google od sierpnia 2018r. wyraźnie im w tym pomaga. Spójrzmy choćby na poniższe przykłady:

  • Ncez.pl – w 2019.03 posiadał 1467 fraz w TOP10, aktualnie 9605 (strona działa od 2017 roku). Najciekawsze frazy w TOP-ach?

  • Sports-med.pl – w 2019.03 posiadał 31 fraz w TOP10, aktualnie 501 (strona działa od 2015 roku). Intensywniejsze linkowanie odbyło się w 2016 roku, a od początku 2017r. liczba domen linkujących utrzymywała się na stałym poziomie. Wpisy blogowe dodawane regularnie od 2015 roku, większych zmian w strukturze serwisu nie odnotowano. Najciekawsze frazy w TOP-ach?

Wiele z tych serwisów działało w sieci kilka lat, nie osiągając zbyt wielkiej widoczności. Sytuacja znacząco zaczęła zmieniać się już od sierpnia 2018r., co przybrało na sile od marca (dla części z nich), aby we wrześniu zmiany dotknęły już znaczną część stron. Niektóre z nich utrzymały wzrosty na długi czas, a niektóre spotykały bardziej chaotyczne losy. Oczywiście część z tych serwisów radziła sobie dobrze już wcześniej, jednak nie sposób oprzeć się wrażeniu, że pojawił się dodatkowy impuls, który zaczął mocno promować serwisy prowadzone w oparciu o ekspercką wiedzę (przy zachowaniu poprawności optymalizacyjnej).

Dlaczego techniczne SEO jest tak istotne? O problemach Google

Nie jest tajemnicą, że rozwiązania oparte o Machine Learning potrzebują ogromnej infrastruktury, która „udźwignie” cały ten proces. Niestety Google od dłuższego czasu ma poważne problemy z wieloma aspektami funkcjonowania swojego narzędzia, co owocowało takimi sytuacjami jak np.:

  • Indexing Bugs (Maj 2019) – błąd, który sprawił, że nie indeksowano nowych treści
  • Deindexing Bug (Kwiecień 2019) – w naszych projektach dostrzegliśmy, że wyindeksowano wyłącznie strony główne kilku serwisów, a w naprawieniu błędu pomogło ponowne zgłoszenie danej strony w GSC. Jednak wg późniejszych informacji, usunięciu z indeksu uległo ok 4% wszystkich stron,

W międzyczasie pojawiały się informacje o aktualizacji infrastruktury Google, która miała na celu zwiększenie wydajności przetwarzania danych. Co więcej, przy okazji opublikowania informacji o BERT, wyjaśniono z jaką skalą obliczeń aktualnie mierzą się specjaliści Google:

„Niektóre modele, które możemy zbudować za pomocą BERT, są tak złożone, że przekraczają granice tego, co możemy zrobić przy użyciu tradycyjnego sprzętu, dlatego po raz pierwszy korzystamy z najnowszych TPU w chmurze, aby wyświetlać wyniki wyszukiwania i szybko uzyskiwać trafniejsze informacje.” – blog.google

Miejmy nadzieję, że wdrażanie kolejnych udoskonaleń nie pogłębi problemów, z którymi spotykamy się w ostatnich miesiącach, czyli m.in. z procesem przeindeksowywania stron czy też usuwania nieaktywnych adresów z indeksu. Kilka kolejnych przykładów:

  • klient, któremu przeprowadzaliśmy migrację w grudniu, do dziś posiada całkiem pokaźną liczbę stron ze starego serwisu (pomimo wykonania dla nich przekierowań)
  • strona, na której regularnie przeprowadzamy odchudzanie liczby podstron, przez wiele miesięcy posiada stare podstrony w indeksie, co kiedyś działało znacznie sprawniej

Co więcej, od pewnego czasu zaczęliśmy dokładniej przyglądać się sytuacji indeksu Binga i tam sytuacja wygląda o niebo lepiej! Strony, które pomimo przekierowania dalej pojawiają się w Google, w Bingu zniknęły dawno temu i „śmieci” znikają z indeksu bardzo sprawnie. W niektórych projektach na przeindeksowanie czekamy ponad 6 miesięcy, w Bing robi to przynajmniej o połowę krócej. To bardzo ważna informacja w kontekście technicznego podejścia do SEO.

Od dłuższego czasu zaleca się, aby umożliwić robotom wyszukiwarek indeksowanie jedynie wartościowych podstron. W ostatnich miesiącach nabiera to coraz większego znaczenia, a w kontekście tak znaczących problemów z indeksacją/reindeksacją, warto umożliwić Google jak najsprawniejsze poruszanie się po stronie, na przykład poprzez wyłączenie z indeksowania niechcianych URLi czy jak najczytelniejszą nawigację. Wyobrażacie sobie jak mocno ulżyłoby Google, gdyby właściciele serwisów usunęli choćby 10% małowartościowych adresów na swoich stronach? A jestem przekonany, że na większości stron znalazłoby się ich zdecydowanie więcej…

Czy istnieje coś, czego nie robić?

Pod względem ogólnie pojętego SEO nie zmieniło się zbyt wiele i nie będę umieszczał tu standardowych banałów w stylu – nie spamuj, nie duplikuj itd. Chciałbym jednak zwrócić uwagę na serwisy, które nie wykazują się eksperckim podejściem do tematu (nie posiadają specjalistycznych autorów, źródeł itd), a starają się poruszać tematy wymagające takiej wiedzy (np.: medycyna, finanse). W sieci można znaleźć wiele takich serwisów i nie są one „rodzynkami”. Taką sytuację zauważyliśmy u jednego z naszych klientów, dla którego jeszcze w ubiegłym roku wypracowaliśmy wysokie pozycje na istotne frazy kluczowe. Niestety, w ostatnich tygodniach zauważamy wyraźne spadki głównie dla sekcji „ekspert radzi” (tematy medyczne, finansowe i administracyjne) w czasie, gdy pozostałe sekcje notują znacznie delikatniejszy spadek:

Podsumowanie analizy

Tekst nie miał na celu znalezienia jednego złotego sposobu na uzyskanie wzrostów, bo od początku wiadomo było, że takiego nie ma. SEO nigdy tak nie działało i działać nie będzie. Chciałem jednak zwrócić uwagę na pewne trendy, które da się zaobserwować podczas głębszych analiz danej branży. Czy będą one przybierały na sile? Myślę, że tak, i co więcej, będą coraz bardziej odczuwalne.

Patrząc na SERPy okiem zwykłego użytkownika, podoba mi się kierunek obrany przez najpopularniejszą wyszukiwarkę świata. Oczywiście w dalszym ciągu istnieje wiele fraz, dla których wyniki są – delikatnie mówiąc – nieprecyzyjne. Jednak pamiętajmy o tym jak trudnym zadaniem jest stworzenie wyszukiwarki choćby zbliżonej do ideału. Jestem przekonany, że Google będzie dalej szedł ścieżką, którą wytyczył przez ostatnie lata. Gdyby tylko nie wiązało się to z takimi problemami związanymi z indeksem… ale nie można mieć wszystkiego i pozostaje liczyć na to, że sytuacja będzie ulegała regularnej poprawie.

Komentarz eksperta

Teraz już wiem jak Tomek spędzał wieczory przez ostatnie kilka tygodni ;-). Komentując tę niezwykle rozbudowaną analizę, chciałbym odpowiedzieć na pytanie zawarte w tytule artykułu. Dotychczas Google wykorzystywał pracę członków zespołu Search Quality Team do „trenowania” algorytmu – w skrócie starał się stworzyć model, który byłby w stanie oceniać strony podobnie jak robią to pracownicy Google. Ostatnie aktualizacje i powiązane z nimi spadki i wzrosty tych samych serwisów skłaniają do wniosku, że to podejście ulega zmianie – w tej chwili Google stara się stworzyć model, który będzie starał się ocenić strony podobnie jak robią to realni użytkownicy a to można próbować mierzyć/badać dopiero po wypuszczeniu danej aktualizacji. Mówiąc trochę przewrotnie – do tej pory Google wiedział dokąd zmierza, w tej chwili sam tego nie wie, to my wszyscy swoją codzienną aktywnością w najpopularniejszej wyszukiwarce o tym będziemy decydować.

Wojciech Grądzki – współzałożyciel SAMOSEO

 

Tomasz Mielewczyk
Autor wpisu

Tomasz Mielewczyk

Początkowo webmaster, który z biegiem czasu przeszedł na SEO-wą stronę mocy. Prowadził projekty SEO m.in. dla Wirtualnej Polski, BZWBK, UPC, iSpot, Santander Consumer Banku, Lexusa, Ergo Hestii, Generali czy Netii.

5 komentarzy
  • Moim zdaniem dąży to polepszenia jakości odbioru stron przez użytkownika przez poprawę UX i branie pod uwagę jak długo użytkownik spędza na naszej stronie. Druga kwestia bardziej precyzyjne wyszukiwanie i podpowiedzi dla danych fraz. Ogólne pozycjonowanie może stać się coraz trudniejsze albo strony które od zawsze stały na linkach i stronach czysto naturalnych mogą zostać wywyższone. Jednak czas pokażę :))

  • Jedną z lepszych analiz, jakie czytałem w ostatnim czasie. Z niecierpliwością czekam na analizę January2020. Może tym razem dla branży finansowej? 🙂

    • Dziękuję za ciepłe słowa. Co do branży finansowej to przyznam, że ten pomysł chodzi mi po głowie od pewnego czasu. Jednak sugeruję uzbrojenie się w cierpliwość – przygotowanie powyższego tekstu zajęło mi ok. 3 miesiące, a finansowego jeszcze nie rozpocząłem 🙂

    • Cieszę się, że artykuł znalazł uznanie w oczach kolejnego czytelnika 🙂

      Co do aktualizacji to nie obiecuję, że takowa się pojawi. Tekst miał na celu ukazanie zmian zachodzących w Google w konkretnym momencie, które obserwowałem od dłuższego czasu. Gdybym nie miał takich wniosków, tekst nie ujrzałby światła dziennego – za dużo w sieci analiz w stylu „strona X zanotowała spadek o X%, a strona Y o Y%”, nie chciałem dodawać kolejnego.

      Nad formą kolejnych analiz jeszcze się zastanawiam. Niemniej, zapraszam na naszego bloga za jakiś czas – z pewnością będzie co poczytać 🙂

Skomentuj Łukasz Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Ten serwis wykorzystuje pliki cookies. Korzystanie z witryny oznacza zgodę na ich zapis lub odczyt wg ustawień przeglądarki. Polityka prywatności