Początek lutego przyniósł duże wahania pozycji stron w rezultatach wyszukiwania Google. Obserwowane i komentowane były one szeroko na całym świecie. Pojawiło się wiele różnych teorii dotyczących przyczyn wzrostów i spadków miejsc witryn w Google. Czy możemy wyciągnąć na ten temat jednoznaczne wnioski?
Pierwsza fala wahań odnotowana została 1 lutego, natomiast druga, w zależności od narzędzia monitorującego, pomiędzy 7 a 9 lutego. Poniżej przedstawiamy dane z dwóch serwisów obserwujących SERPy Google.
Rys. 1. Poziom zmian pozycji w Google wg Algoroo
Źródło: algoroo.com
Rys. 2. Poziom zmian pozycji w Google wg Serp Watch
Źródło: serp.watch
Groundhog Update – nowy zwierzak w Google?
Zawirowania z 1 lutego łączone są głównie z aktualizacją algorytmu Google dotyczącą linków zewnętrznych prowadzących do witryn. W serwisie Go Fish Digital przedstawiona została analiza, która sugeruje powiązanie omawianych skoków pozycji stron z nowym patentem przyznanym Google w dniu 31 stycznia 2017.
Rozwiązania z patentu umożliwiają m.in. ocenę jakości linków dochodzących oraz zmniejszenie przekazywanej przez nie mocy PageRank, bądź też całkowite zignorowanie danych linków przy ustalaniu rankingu podlinkowanej strony.
Jednym ze sposobów oceniania jakości odnośników przez nowy system ma być poziom ruchu jaki generują one do podlinkowanych stron. Jeśli ruch generowany przez linki prowadzące do strony uznany zostanie za zbyt mały w stosunku do ilości linków, to podlinkowana strona może zostać ukarana obniżeniem pozycji.
Co ciekawe patent mówi o uwzględnianiu nie tylko wielkości ruchu z linków, ale także o związanym z nim czasem przebywania na stronie („dwell time”).
Czy w okolicach 1 lutego wprowadzona została aktualizacja algorytmu Google, nazwana świstakiem (ang. groundhog), która wprowadziła w życie rozwiązania opisane w patencie? Zbieżność daty jego otrzymania oraz znaczących zmian pozycji stron w SERPach sugerują taką możliwość, jednak Google tradycyjnie nie potwierdziło oficjalnie wdrożenia jakiegokolwiek update’u.
Phantom znów powraca
Już tydzień później wyniki Google nawiedziły kolejne rotacje, tym razem o jeszcze większej skali. Pojawiły się spekulacje o wprowadzeniu nowego indeksu stron „mobile-first” oraz rozpoczęciu przez Google karania stron mobilnych za natarczywe reklamy (szczegóły tutaj). Najbardziej prawdopodobną przyczyną dużych skoków serwisów w rezultatach wyszukiwania po 7 lutego wydaje się jednak następna odsłona aktualizacji algorytmu nazywanej „Phantom”.
Określana jest ona również mianem „Quality Update”, gdyż skupia się na czynnikach związanych z jakością stron (potwierdzone zostało to przez Google przy okazji wdrożenia wersji nr 2).
Phantom po raz pierwszy zaobserwowany został w maju 2013 r. i od tego czasu pojawiały się jego kolejne postacie:
- Phantom I – maj 2013
- Phantom II – maj/czerwiec 2015
- Phantom III – listopad 2015
- Phantom IV – czerwiec/lipiec 2016
Jak widzimy aktualizacje Phantoma odnotowywane są ostatnio w dość regularnych odstępach czasowych – mniej więcej półrocznych, a obecna data wpisuje się w ten „cykl”. Na update Phantom V wskazują także inne argumenty. Jednym z nich jest fakt, że w czasie kolejnych zmian algorytmu, wciąż te same witryny pojawiają się wśród notujących spadki lub wzrosty widoczności w Google. Dobrym przykładem jest tutaj podawany w analizie Searchmetrics portal myrecipes.com, który także teraz odczuł skutki aktualizacji:
Rys. 3. Widoczność strony myrecipes.com w Google w ostatnich 2 latach
Źródło: http://blog.searchmetrics.com/us/2017/02/15/google-phantom-5-update/
Podczas kolejnych aktualizacji Phantoma zmienia się sposób w jaki przetwarzane są przez algorytm sygnały wskazujące na jakość witryn. Trudno konkretnie wskazać w każdym przypadku, które czynniki i w jaki sposób zostają interpretowane, jednak na podstawie dotychczasowych update’ów może określić kilka cech charakterystycznych aktualizacji Phantom:
- Wpływa na konkretne strony lub podkatalogi w witrynie, a nie na całą domenę,
- Bardzo często „dotknięte” zostają duże marki,
- Poprawa lub pogorszenie widoczności często dotyczą fraz brandowych oraz krótkich, mało szczegółowych,
- Wdrożenie zmian w algorytmie trwa zwykle kilka tygodni,
- W ocenie jakości duże znaczenie mają sygnały związane z użytkownikami, zwłaszcza ich intencje.
W przypadku najnowszej wersji Phantom V, jedno ze szczegółowych badań sygnalizuje, że podczas oceny jakości strony uwzględnia on także wiele innych czynników niż tylko jakość i objętość treści. Pod uwagę brane są także takie sygnały jak:
- Agresywne rozmieszczenie reklam,
- Podstępne techniki do celów monetyzacji contentu,
- Nieprawidłowo działające elementy związane z UX (ang. user experience),
- Automatycznie odtwarzane materiały audio i wideo,
- Agresywne okienka reklamowe, pop-up’y,
- Stopień powiązania strony z wyszukiwanym zagadnieniem (w jakim zakresie strona odpowiada intencjom wyszukiwania),
- Elementy wpływające na niski poziom zaangażowania użytkownika, jak np. niedziałające menu, zepsuty interfejs, niejasna nawigacja, nadmierna paginacja strony,
- Poziom użyteczności mobilnej wersji strony,
- Techniczne kwestie SEO, takie jak problemy z kanonicznością (duplikacja treści), plikiem robots.txt, meta tagami „robots” i inne.
Wiele z powyższych zagadnień zostało szeroko umówionych we wskazówkach oceny jakości rezultatów wyszukiwania („Search Quality Rating Guidelines”) dla pracowników Quality Team w Google. Wskazówki te zostały ostatnio zaktualizowane w marcu 2016 r. Wydaje się nieprzypadkowe, że pracownik Google, Gary Illyes wspomniał o nich na Tweeterze 12 lutego br., kilka dni po dużych wahaniach wyników Google.
DYK we released an updated version of our Search Quality Raters Guidelines. Bored this Sunday? Here’s the link:https://t.co/6MdO1i5P7k
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 12 lutego 2017