Według badania Gemius PBI w maju 2016 roku liczba użytkowników internetu w Polsce wyniosła 25,2 mln. Do najpopularniejszych źródeł pozyskiwania wiedzy, materiałów czy odpowiedzi na pytania, wśród osób korzystających z sieci, należą wyszukiwarki internetowe. Prym pośród nich wiedzie Google, z którego korzystało w tym samym czasie 96% internautów, a każdego dnia czyni to średnio prawie 10 mln użytkowników. Osiągnięcie wysokich pozycji w rezultatach wyszukiwania dla wybranych zapytań powinno być więc celem każdego właściciela witryny. Do realizacji tego celu służy pozycjonowanie stron internetowych. Chcesz wiedzieć, w jaki sposób przebiega pozycjonowanie, jak robić to skutecznie i jakich unikać błędów? Tutaj znajdziesz wszystkie najważniejsze informacje.

Jeśli któreś pojęcie zawarte w artykule nie jest Ci znane skorzystaj z naszego słownika SEO

 

  1. Najważniejsze pojęcia
  2. Wyniki wyszukiwania – SERP
  3. Frazy kluczowe
  4. Narzędzia wspomagające dobór fraz
  5. Klikalność wyników wyszukiwania
  6. Co decyduje o pozycjach?
  7. Fundamenty SEO
  8. Link building
  9. Black Hat SEO
  10. Kary od Google
  11. Ile czasu trwa pozycjonowanie?
  12. Narzędzia wspomagające optymalizację
  13. Narzędzia do pomiaru efektów
  14. Mity SEO

 

Na początku warto wspomnieć o jeszcze jednej zalecie pozycjonowania i jego przewadze nad innymi działaniami marketingowymi takimi jak reklama w telewizji, banery na stronach internetowych czy wysyłka maili. Użytkownicy, korzystając z wyszukiwarki, w tym momencie są zainteresowani danym tematem, produktem czy usługą. Tak więc pozycjonowanie, mimo mniejszego zasięgu od kosztownych reklam, umożliwia dotarcie do większej grupy potencjalnych klientów, a ruch na stronie pochodzący z wyników wyszukiwania charakteryzuje się wysokim poziomem konwersji. Ponadto pozwala dotrzeć do użytkowników na wszystkich etapach procesu zakupowego, od wstępnego zainteresowania i zbierania informacji, aż do podejmowania decyzji zakupowych.

Mówiąc o pozycjonowaniu stron, należy pamiętać, iż dotyczy ono naturalnych, czyli bezpłatnych wyników wyszukiwania, zwanych również organicznymi. Płatne reklamy AdWords w wynikach Google są całkowicie odrębną kwestią i nie oddziałują na rezultaty naturalne.

W skrócie:

SEM = SEO + PPC

Na marketing w wyszukiwarkach (SEM – ang. Search Engine Marketing) składają się działania w zakresie optymalizacji pod kątem wyszukiwarek (SEO – ang. Search Engine Optimization) – inaczej pozycjonowanie oraz osobno kampanie PPC (ang. Pay Per Click) obejmujące reklamy płatne za kliknięcie, takie jak Google AdWords. W Polsce bardzo często możemy się spotkać z określeniem SEM przypisanym do wspomnianej reklamy płatnej w wyszukiwarce.

Mianem pozycjonowania określamy zabiegi mające na celu zwiększenie widoczności strony w bezpłatnych wynikach wyszukiwania na frazy kluczowe. Czynności te dzielą się na dwie grupy:

  • „On-site” – obejmują elementy wewnątrz witryny,
  • „Off-site” – dotyczą linków zewnętrznych prowadzących do serwisu.

W uproszczeniu: Pozycjonowanie = Optymalizacja strony + Pozyskiwanie linków.

W efekcie skutecznego pozycjonowania strony pojawia się ona na wysokich miejscach pośród naturalnych wyników Google, które stanowią grupę oddzielną od rezultatów płatnych:

SERP Google - podział SEO / PPC

Podział wyników wyszukiwania Google, źródło: opracowanie własne

Wśród wyników płatnych wyróżniamy podział na reklamy tekstowe (dawniej linki sponsorowane) oraz reklamy produktowe (PLA – ang. Product Listing Ads) w ramach Zakupów Google:

Wyniki płatne - reklamy w Google

Podział płatnych wyników wyszukiwania Google, źródło: opracowanie własne

Bezpłatne rezultaty wyszukiwania dzielą się natomiast na organiczne oraz rozszerzone. Wyniki organiczne to tradycyjne linki do stron internetowych, a rezultaty rozszerzone w zależności od wyszukiwanej frazy obejmować mogą bardzo wiele różnych elementów jak np.:

  • Mapy z wizytówkami Google,
  • Grafy wiedzy,
  • Ceny noclegów,
  • Informacje o lotach,
  • Najważniejsze artykuły,
  • Obrazy,
  • Filmy wideo,
  • Polecane odpowiedzi (featured snippets).

SERP Google - graf wiedzy

Przykładowy podział naturalnych wyników wyszukiwania Google, źródło: opracowanie własne

Wpisywane przez użytkowników zapytania do wyszukiwarki (frazy kluczowe) mogą powodować wyświetlenie specyficznych form rezultatów, a ponadto dla pozycjonowania różnych rodzajów fraz wymagane jest zastosowanie nieco odmiennych strategii SEO. Słowa kluczowe podzielić możemy na następujące kategorie:

  • Ogólne – są to frazy mało precyzyjne, dotyczące ogólnych zagadnień lub szerokiej grupy towarów czy usług. Posiadają zwykle bardzo dużą liczbę wyszukiwań przez użytkowników. Przykładowo: „herbata”.
  • Szczegółowe – dokładniej charakteryzują wyszukiwane pojęcie np. „herbata czarna”.
  • Niszowe – to wielowyrazowe frazy bardzo precyzyjnie określające dane zagadnienie. Mają niewielką liczbę wyszukiwań, ale wyróżniają się wysokim poziomem konwersji. Nazywane są również frazami z długiego ogona lub „Long Tail”. Przykładowo: „herbata ceylon liściasta”.
  • Brandowe – obejmują nazwę firmy lub marki np. „lipton”.
  • Semi brandowe – zawierające nazwę marki oraz ogólne zagadnienie, czy też grupę produktów, np. „herbata lipton”.
  • Lokalne – zawierają słowa dotyczące miejsca/regionu związanego z wyszukiwaniem np. „sklep z herbatami wrocław”.

Prawidłowy dobór fraz kluczowych do kampanii SEO jest jednym z najistotniejszych elementów wpływających na jej efektywność, a więc na osiągane zyski. Przeprowadzenie researchu fraz umożliwiają specjalistyczne narzędzia.

Planer słów kluczowych

Google Keyword Planner, wchodzący w skład narzędzi w ramach platformy reklamowej AdWords, to podstawa pracy każdego SEOwca. Dzięki niemu można sprawdzić, jaka jest średnia miesięczna liczba wyszukiwań określanej listy fraz kluczowych.

Googel AdWords planner

Propozycja fraz kluczowych dla hasła „huawei p9” w planerze słów kluczowych, źródło: opracowanie własne

Dodatkowo analizę można zawęzić m.in. dla wybranego okresu, wskazanej lokalizacji czy też języka. Narzędzie umożliwia również dobór podobnych i bliskoznacznych fraz w stosunku do zadanych. Dzięki temu Keyword Planner może się przydać do planowania kampanii SEO – oceny, czy wybrane frazy będą generować odwiedziny i wyszukać dodatkowe, które potencjalnie mogą przynieść dodatkowy ruch na stronie internetowej. Trzeba jednak pamiętać, że Keyword Planner nie pokazuje pełnej listy propozycji, do tego celu lepiej wykorzystać bazę fraz w SEMSTORM. Oprócz tego, od niedawna, w przypadku nieposiadania aktywnej kampanii w koncie AdWords planer nie wyświetla dokładnej średniej liczby wyszukiwań, lecz w zamian podaje ich mało precyzyjny przedział.

SEMSTORM

Jedno z najbardziej przydatnych narzędzi w zakresie doboru fraz kluczowych oraz badania widoczności witryn w Google.

panel Semstorm

Panel informacyjny w SEMSTORM dla analizowanej witryny, źródło: opracowanie własne

Posiada bardzo dużo zaawansowanych funkcjonalności, w tym porównanie z konkurencją służące m.in. do wyznaczenia fraz z potencjałem. Baza monitorowanych fraz obejmuje aż 22 mln polskich słów kluczowych. Dodatkowym autem są narzędzia: wyszukujące synonimy, wskazujące podpowiedzi wyszukiwarki podczas wpisywania zapytań, znajdujące frazy powiązane z danym pytaniem oraz generator tematów odkrywający setki pytań zawierających określoną frazę. Ta ostatnia funkcjonalność jest szczególnie użyteczna jako inspiracja podczas tworzenia nowych treści, np. artykułów. SEMSTORM jest płatny, ceny pakietów nie są wygórowane, istnieje możliwość założenia darmowego konta testowego. Zagraniczną alternatywę dla narzędzia stanowi, również płatny, SEMrush, jednak jest on mniej dokładny dla polskiego rynku.

Übersuggest

Bardzo proste i użyteczne narzędzie. Pomaga w odkryciu wszystkich możliwych podpowiedzi proponowanych podczas wpisywania zapytania przez wyszukiwarkę Google dla wyników dotyczących: internetu, wiadomości, grafik i zakupów oraz przez wyszukiwarkę YouTube.

Ubersuggest Podpowiedzi wyszukiwarki podczas wpisywania zapytania, źródło: opracowanie własne

Wyniki otrzymujemy w postaci listy alfabetycznej, którą łatwo możemy pobrać w celu dalszej analizy, np. w zakresie wielkości miesięcznych wyszukiwań przy użyciu planera słów kluczowych.

Google Trends

Narzędzie to, w przeciwieństwie do pozostałych, nie służy do „klasycznego” doboru konkretnych fraz kluczowych. Pozwala natomiast na długoterminową analizę trendów – w szybki sposób można sprawdzić jaka tematyka jest obecnie na topie i w jakim regionie.

Google Trends

Wyniki narzędzia Google Trends dla hasła „energia elektryczna”, źródło: opracowanie własne

Wyniki można zawęzić nie tylko do zadanego okresu i obszaru, ale również do kategorii oraz danej wyszukiwarki: całej Google, samej grafiki, wiadomości bądź zakupów oraz silnika wyszukiwania w YouTube.  Google Trends dodatkowo wskazuje podobne tematy oraz zapytania.

O tym, w jaki sposób dobrać frazy kluczowe, pod kątem których prowadzone będzie pozycjonowanie strony, tak aby kampania przyniosła jak największe zyski, piszemy na naszym blogu: https://www.semtec.pl/jak-wybrac-zyskowne-frazy-kluczowe-do-pozycjonowania/.

Aby stworzyć założenia dla prowadzonej lub planowanej kampanii SEO i określić szacunkowy ruch na stronie, oprócz znajomości liczby wyszukiwań fraz kluczowych, potrzebne są również statystyki dotyczące klikalności w rezultatach Google.

Współczynnik klikalności (CTRang. Click Through Rate) poszczególnych wyników organicznych różni się znacząco w zależności od pozycji zajmowanej na stronie rezultatów (SERP). Naturalnie większą liczbę kliknięć otrzymują wyniki zajmujące wyższe pozycje, w szczególności te znajdujące się na miejscach 1-3. Wg badania przeprowadzonego przez Advanced Web Ranking czołowe 3 rezultaty posiadają łączny CTR na poziomie 51,33% dla wyników na komputerach stacjonarnych i 49,74% na urządzeniach mobilnych. Współczynnik klikalności dla pozycji 1 wyników Google dla desktop wynosił przeciętnie 27,45%, dla pozycji 2 było to 14,76%, natomiast pozycja 3 osiągała 10,15%. Różnice pomiędzy CTR dla poszczególnych pozycji od 4 do 10 są już wyraźnie mniejsze niż w top 3, co zobaczyć można na poniższym wykresie:

 CTR w SERP Google 2016

Współczynnik CTR wyników organicznych Google w 2016 r., źródło: Advanced Web Ranking

Pamiętać należy, iż współczynnik CTR wyników organicznych w rezultatach Google może różnić się znacząco w zależności od wielu czynników takich jak występowanie i liczba reklam, długość zapytania, czy jego kategoria tematyczna. Bardzo ważnym jest też typ zapytania. W przypadku fraz brandowych CTR może być znacznie wyższy i wynieść nawet ponad 70%. Przykładowo intencją internauty wyszukującego markę Nike, znacznie częściej jest odnalezienie strony producenta, niż konkretnego sklepu z asortymentem sportowym. Szczegółowe dane na temat zróżnicowania CTR w SERP znaleźć można w naszym artykule – Klikalność stron w wynikach Google w 2016 – poziom i zależności.

Algorytmy Google

Za ustalenie, które strony wyświetlone zostaną na danych pozycjach w wynikach wyszukiwania, odpowiedzialny jest specjalny algorytm Google. Jest on bardzo skomplikowany i niezwykle pilnie strzeżony. Algorytm uwzględnia ok. 200 czynników mających wpływ na to, jaką pozycję osiągnie konkretna strona internetowa po wpisaniu określonego zapytania (i czy w ogóle zostanie wyświetlona w rezultatach).

Każdego roku w algorytmie Google wprowadzanych jest nawet 1 000 różnego typu poprawek, które wpływać mogą na wygląd strony z wynikami, ale przede wszystkim na pozycje notowane przez witryny.

Wypowiedź Johna Muellera z Google na temat poprawek w wyszukiwarce, źródło: youtube.com

Większość zmian w algorytmie jest stosunkowo mało znacząca i nie jest zauważana przez użytkowników czy właścicieli stron. Od czasu do czasu wprowadzane są jednak poważne update’y powodujące duże zmiany pozycji serwisów w wynikach Google. Na przestrzeni lat Google wdrożył wiele ważnych aktualizacji, jak również oddzielnych algorytmów mających na celu poprawę jakości oraz trafności dostarczanych rezultatów. Poniżej przedstawiamy część z nich, których wpływ na pozycje stron jest największy:

  • Pingwin – jest to algorytm wymierzony przeciwko stronom stosującym niedozwolone metody pozyskiwania linków takie jak systemy wymiany linków (SWL) czy linki płatne. Po raz pierwszy uruchomiony został w kwietniu 2012 r. jako aktualizacja odświeżana okresowo. Wraz z wprowadzeniem najnowszej wersji Pingwin 4.0 został on włączony do głównego algorytmu wyszukiwania i działa w czasie rzeczywistym. W przeciwieństwie do poprzednich wcieleń nie nakłada kar w postaci obniżenia pozycji strony, lecz ignoruje jej linki dochodzące, które uzna za zabronione – manipulujące rankingiem w wynikach wyszukiwania.
  • Panda – aktualizacja algorytmu mająca na celu wyeliminowanie z czołowych pozycji w Google stron posiadających niskiej jakości treści, zduplikowaną i/lub bardzo ograniczoną zawartość, mało wartościowych dla użytkowników. Panda pojawiła się w lutym 2011 r.
  • Phantom – ten update nie jest oficjalnie potwierdzony przez Google, chociaż jego skutki zaobserwowano już pięciokrotnie. Phantom powoduje obniżenie widoczności w rezultatach wyszukiwania tych stron, które w jego ocenie mają problemy z szeroko rozumianą jakością, szczególnie w aspektach dotyczących wrażeń użytkowników.
    Tutaj przeczytacie więcej na temat ostatniego wariantu Phantom V.
  • Mobile-friendly – jedna z kluczowych aktualizacji algorytmu Google w ostatnich latach. Jako bardzo nieliczna została ogłoszona z wyprzedzeniem przez amerykański koncern i wprowadzoną ją 21 kwietnia 2015 r. Od tego momentu poziom dostosowania strony do wyświetlania na urządzeniach przenośnych, zgodnie z kryteriami „mobile friendly” wpływa na jej pozycje w mobilnych wynikach Google. Update ten często określany był nazwą „Mobilegeddon”. Szczegóły na naszym blogu.
  • Page Layout (Top Heavy) – algorytm, którego zadaniem jest degradowanie witryn posiadających nadmierną liczbę reklam w górnej części strony widocznej od razu po załadowaniu tzw. „above the fold”:

Above the fold

Wizualizacja segmentu strony „above the fold”, źródło: opracowanie własne

Obniżeniem pozycji może skutkować nie tylko przesycenie reklamami w sekcji „above the fold”, ale także zamieszczanie ich w taki sposób, który przeszkadza użytkownikom w odnalezieniu faktycznej treści strony.

  • RankBrain – system oparty na „sztucznej inteligencji” włączony do głównego algorytmu wyszukiwania Google w 2015 r. Wykorzystuje on tzw. „uczenie maszynowe” i został opracowany dla lepszego interpretowania zapytań i rozumienia intencji użytkowników. Wg Google RankBrain jest trzecim w kolejności najważniejszym sygnałem wpływającym na wyniki wyszukiwania. Czy możliwa jest optymalizacja strony pod kątem RankBrain i co dokładnie wiadomo o jego działaniu – przeczytacie w naszym artykule.

Czynniki rankingowe

Czynniki rankingowe decydujące o pozycjach w rezultatach wyszukiwarki oprócz bardzo nielicznych wyjątków nie są ujawniane przez Google. Na podstawie wielu różnorakich testów i badań oraz wieloletnich doświadczeń branży SEO możliwe stało się jednak określenie bardzo dużej liczby sygnałów uwzględnianych przez algorytm, choć część z nich budzi kontrowersje, a ponadto dyskusje toczą się nad tym, jak duże znaczenie mają poszczególne czynniki.

Sygnały rankingowe podzielić możemy na dwie grupy: „on-site” – dotyczące różnych elementów witryny oraz „off-site” – dotyczące linków dochodzących.

Wśród najważniejszych czynników „on-site” wyróżniamy m.in.:

  • Jakość, unikalność i objętość treści,
  • Występowanie słów kluczowych w treści,
  • Występowanie fraz w elementach kodu strony takich jak: tytuł (title), nagłówki, adres URL,
  • Linkowanie wewnętrzne,
  • Czas ładowania strony,
  • Dostosowanie do wyświetlania na urządzeniach mobilnych,
  • Przyjazność strony dla robotów wyszukiwarki (Googlebot),
  • Wiek domeny.

Do sygnałów pozytywnie wpływających na pozycje strony w Google zalicza się także zastosowanie szyfrowanego protokołu HTTPS. Pamiętać trzeba przy tym, że, jak przyznał oficjalnie sam Google, wpływ ten jest bardzo niewielki. Należy jednak spodziewać się, iż znaczenie bezpiecznego połączenia SSL dla algorytmu Google będzie stopniowo wzrastać.

Jedną z kluczowych kwestii już teraz bardzo istotnych dla widoczności strony w SERPach jest dostosowanie do mobile. Obecnie poziom optymalizacji strony pod kątem urządzeń przenośnych decyduje w dużym stopniu o jej pozycjach tylko w mobilnych wynikach wyszukiwania Google. Rozpoczęły się już jednak testy nowego sposobu indeksowania stron przez Google, w którym domyślnie sprawdzana będzie mobilna wersja strony. Ocena wariantu mobilnego wpływać będzie wtedy na widoczność strony w rezultatach wyszukiwania nie tylko dla urządzeń przenośnych, ale i dla komputerów stacjonarnych. Więcej szczegółów w naszym wpisie na temat „Mobile-first indexing”.

Mimo pojawiających się co jakiś czas opinii o upadku znaczenia linków dochodzących (inaczej backlinks), faktem jest, że do grupy czynników o największym wpływie na osiągane pozycje nadal należą także sygnały związane z linkami prowadzącymi do strony z innych witryn. Czynniki te nazywane „off-site” obejmują takie kwestie jak:

  • Liczba linkujących unikalnych domen,
  • Całkowita liczba linków dochodzących,
  • „Autorytet” witryn z backlinkami,
  • Powiązanie tematyczne stron linkujących,
  • Profil linków dochodzących np. udział odnośników typu „nofollow”.

W ramach czynników dotyczących backlinków znajduje się także wiele innych bardziej złożonych zagadnień. Z tego względu pozyskiwanie linków do witryny jest procesem wymagającym specjalistycznej wiedzy i doświadczenia, a nieprofesjonalne działania często skutkują nałożeniem kary przez Google i osiągnięciem efektu odwrotnego od zamierzonego. W związku z powyższym działania te powinien wykonywać specjalista.

Podczas procesu pozycjonowania należy skupiać się możliwie na jak największej liczbie czynników, a nie ograniczać się wyłącznie do kilku.

Budowa strony

 

Struktura podstrony

Elementy układu każdej podstrony: nagłówek strony, nawigacja, treść właściwa i stopka, oraz powiązanie ze sobą poszczególnych podstron mają bardzo duży wpływ na SEO. Przejrzysty układ to ważny aspekt nie tylko ze względu na widoczność w wyszukiwarkach. Ma przede wszystkim umożliwić użytkownikowi znalezienie najważniejszych informacji w łatwy sposób.  Warto wspomnieć, że nie wolno łamać utartych standardów. Przykładowo nie stosować nawigacji po prawej stronie, gdy z przyzwyczajenia użytkownik spodziewa się ich w zupełnie innym miejscu – na górze lub po lewej stronie.

 

Nawigacja

Kluczowym dla każdej witryny jest zaprojektowanie poprawnej nawigacji. Użytkownik podczas przechodzenia przez kolejne zasoby musi wiedzieć dokładnie, w którym miejscu się znajduje i móc przejść do najbardziej pożądanego miejsca. Np. na karcie produktu, oprócz możliwości kliknięcia „kup” i wejścia do koszyka, powinna istnieć możliwość przejścia do danej podkategorii produktów lub całej kategorii głównej, a nawet do innych wersji kolorystycznych, całej serii, jak również innych towarów tego samego producenta oraz produktów komplementarnych.

Częstym przykładem błędnej nawigacji jest „podlinkowanie” logo do innych zasobów witryny niż strona główna, gdy obecnie każda osoba oczekuje po kliknięciu znaleźć się właśnie tam.

 

Linkowanie wewnętrzne

Odpowiednio zbudowana struktura linków wewnętrznych umożliwia robotom wyszukiwarki swobodne poruszanie się po wszystkich podstronach witryny. Szczególną uwagę należy zwrócić na prawidłową budowę menu nawigacyjnego, która powinna być hierarchiczna. Nawigacja nie powinna być oparta na technologii JavaScript czy Flash. Warto stosować również dodatkowe bloki linkowania wewnętrznego (np. podobne produkty, artykuły czy też kategorie), które usprawnią indeksację dużej liczby podstron. Hierarchiczny porządek menu nawigacyjnego jest najczęściej spotykanym rozwiązaniem w sklepach internetowych i stanowi najlepszą praktykę z punktu widzenia widoczności w wyszukiwarkach, jak i samego użytkownika. Menu powinno być tekstowe – dzięki temu robot wyszukiwarki nie ma problemu ze swobodnym poruszaniem się po podstronach.

 

Budowa adresów URL

Duże znaczenie ma odpowiednia struktura adresów URL. Adresy te powinny być użyteczne – „opisywać” zawartość podstrony oraz być na tyle krótkie, by użytkownik mógł je szybko odczytać oraz zapamiętać. Zaleca się stosowanie adresów URL nie dłuższych niż 120 znaków. Należy unikać niezrozumiałych dla robotów wyszukiwarek symboli lub znaków specjalnych, czy parametrów jak „_”, „&”, „?” ,”=”. Adresowanie w obrębie serwisu powinno być jak najbardziej uproszczone. Należy unikać wielokrotnego zagłębiania adresów za pomocą „/” – ważne, by nie oddalać podstrony w hierarchii jak najdalej od strony głównej. Dodatkowo nie należy w URL podstrony zawierać wszystkich członów wszystkich kategorii nadrzędnych, lecz tylko te mu najbliższe. Przykładowo dla karty produktu trampek marki Nike o nazwie SB Satire II  adres nie powinien zawierać takich słów jak: mężczyzna, obuwie, codzienne, a jedynie trampki, Nike, nazwę produktu oraz ewentualnie kolor.

 

Czas ładowania

Prędkość ładowania strony od lat jest ważnym czynnikiem rankingowym algorytmów wyszukiwarki Google. Czas ten ma kluczowy wpływ na odbiór strony przez użytkowników, jeśli jest zbyt długi, zniechęca do przeglądania każdej witryny. Nie ma znaczenia czy jest to sklep internetowy, serwis informacyjny, czy strona firmowa. Dotyczy to zarówno wersji desktopowej, jak i mobilnej, gdzie czas ten powinien być znacznie krótszy. Wskaźnik ten nie powinien przekraczać wartości 3 sek., a idealną sytuacją jest, kiedy wynosi poniżej 1,5 sek. Usprawnieniu w tym zakresie powinna podlegać każda podstrona serwisu, nie należy poprzestawać w tym procesie na stronie głównej. Optymalizacji podlegać powinny m.in. obrazki, kod HTML i JavaScript. Z pomocą w zakresie wskazówek przychodzi narzędzie Google PageSpeed Insights.

 

Dostosowanie do mobile

Dostosowanie strony do urządzeń mobilnych może odbywać się poprzez:

  • Stworzenie witryny responsywnej (RWD , ang. Responsive Web Design), która dostosowuje się do rozdzielczości ekranu urządzenia, zarówno na komputerach stacjonarnych, jak i urządzeniach przenośnych. Jest to rozwiązanie zalecane przez Google.
  • Dynamiczne przesyłanie kodu strony – metoda polegająca na wysyłaniu kodu strony dostosowanego do rozdzielczości ekranu używanego przez urządzenie użytkownika.
  • Utworzenie odrębnego serwisu przystosowanego do urządzeń mobilnych – stworzenie odrębnej witryny, umieszczonej pod innym adresem (np. m.onet.pl), wyłącznie na potrzeby urządzeń przenośnych.

Dynamiczny rozwój rynku mobile (m.in. wzrost liczby wejść na stronę oraz wzrost wartości zakupów robionych przy wykorzystaniu urządzeń przenośnych) sprawił, że coraz więcej firm zaczęło kłaść większy nacisk na dostosowanie sklepu online do potrzeb i oczekiwań klientów robiących zakupy przez Internet. Wyczerpujący artykuł dotyczący optymalizacji stron mobilnych znajduje się tutaj.

 

Indeksacja podstron

W przypadku wielu rozbudowanych witryn, nie tylko portali i e-commerce, koniecznie należy zadbać o nieindeksowanie podstron o znikomej wartości dla użytkownika. Kwestia ta nabiera ostatnimi czasy dużego znaczenia. Otóż Google przyznaje każdej z witryn określony budżet indeksowania, który z reguły jest niższy niż jej wielkość, dlatego należy dążyć do jego efektywnego wykorzystania. Przykładem mało wartościowych treści mogą być wyniki wyszukiwania wewnętrznej wyszukiwarki lub złożonych rezultatów filtracji produktów (np. prezentujących jeden produkt na liście lub kolejne sortowania listy produktów). Indeksowanie tego typu wyników jest stosowane w celu sztucznej maksymalizacji liczby zaindeksowanych podstron, jednak obecnie takie praktyki nie są zalecane.

 

Duplikacja treści w witrynie

Jednym z najbardziej rozpowszechnionych problemów występujących w dużych witrynach z rozbudowaną kategoryzacją lub filtracją jest powstawanie wielu podstron zawierających kopie treści, czyli tzw. „duplicate content”. Duża liczba ich liczba ma negatywny wpływ na widoczność w topach wyszukiwarki Google. Zazwyczaj przyczyną utworzenia kopii treści są wspomniane wcześniej filtry oraz opcje sortowania. Dla przykładu ta sama podstrona kategorii, choć z produktami w różnej kolejności, może zostać zaindeksowana w Google pod różnymi adresami:

  • przykladowadomena.pl/filmy?sortuj=cena
  • przykladowadomena.pl/filmy?sortuj=popularnosc
  • przykladowadomena.pl/filmy?sortuj=nazwa

Najczęściej stosowanym sposobem radzenia sobie z indeksowaniem zduplikowanych podstron, jest wskazanie robotom wyszukiwarki adresu podstrony nadrzędnej, która powinna zostać umieszczona w indeksie Google pod jednym adresem. Dokonujemy tego umieszczając link kanoniczny w kodzie podstrony (w sekcji <head>). Poniżej przykład takiego linku:

<link rel=”canonical” href=” http://www.przykladowadomena.pl/filmy” />

Drugi sposób polega na umieszczeniu meta tagu robots posiadającego zawartość „noindex,follow”. Umieszczenie znajdującego się poniżej fragmentu kodu w sekcji <head> spowoduje wysłanie informacji do robotów wyszukiwarek, aby nie indeksować danej strony, ale śledzić linki na niej się znajdujące (przekazywać Page Rank):

<meta name=”robots” content=”noindex,follow” />

Z uwagi na wcześniej wspomniany budżet indeksowania ta metoda jest rekomendowana.

Treści

Układ treści

HubSpot podaje, że ponad połowa Internautów zatrzymuje się w witrynie na mniej niż 15 sekund. Jak dobrze wykorzystać ten czas i zachęcić użytkownika do pozostania i zapoznania się z treścią? Podstawą jest porządkowanie contentu. Odpowiedni układ treści szybko wskazuje zagadnienia podjęte w tekście. Odbiorca nie traci czasu na szukanie interesujących go kwestii – dociera do nich w kilka sekund i pozostaje dłużej, jeśli znalazł coś dla siebie.

Internauci czytają zgodnie z modelem litery F, stworzonym przez Nielsena. Najwięcej uwagi skupiają na tytule, który powinien ciekawić i jednocześnie wskazywać tematykę tekstu. Podjęte zagadnienia szerzej nakreśla lead – wyodrębniona i często wytłuszczona początkowa partia artykułu. Dalej użytkownicy skanują wzrokiem wzdłuż lewego marginesu. Dlatego tak ważne jest stosowanie śródtytułów, rozdzielających kolejne akapity i dających jasną informację, jakich treści można spodziewać się w kolejnym podrozdziale tekstu.
Z tego samego powodu tekst powinien być również wyrównany do lewej.

Układ tekstu - litera F

Czytanie w internecie – model litery F; źródło: nngroup.com

Należy spodziewać się, że publikacje, których czas odsłony jest dłuższy – użytkownik dotarł do interesujących go informacji dzięki odpowiedniej nawigacji – będą przyjmowane z większym zaangażowaniem, cytowane i udostępniane. Interakcje przyczyniają się z kolei do budowania sieci wartościowych linków, a wartość tekstu dla użytkownika jest jednym z najistotniejszych czynników rankingowych Google.

 

Długość

Badania pokazują, że długość publikacji bezpośrednio wpływa na rankingi wyników organicznych oraz przyrost linków. Pozycje w top10 wyników wyszukiwania należą do podstron, na których tekst przekracza objętość 2 tysięcy znaków. Według Moz taki content jest także o 15 razy bardziej atrakcyjny dla działań link building.

 Top 10 Google content length

Średnia długość treści w top10 wyników wyszukiwania; źródło: blog.serpiq.com

Im dłuższy tekst, tym bardziej wartościowy nie tylko dla wyszukiwarki, ale także dla użytkownika. Buzzsumo we współpracy z OkDork dowodzi, że treści liczące od 3 do 10 tysięcy słów są częściej udostępniane w mediach społecznościowych, zarówno jeśli chodzi o Facebooka, jak i LinkedIn, Twiterra, G+ czy Pinteresta. Oznacza to, że użytkownicy odbierają je również jako bogatsze merytorycznie.

Dłuższe treści dają większe możliwości zagęszczenia słów kluczowych. Lepiej odpowiadają na precyzyjne zapytania użytkowników, liczące od 4 do 8 słów, tzw. frazy long tail. Badając dane dotyczące blisko 24 mln polskich fraz przy użyciu Planera słów kluczowych, dochodzimy do wniosku, że takich zapytań jest w ciągu dnia nawet 300 milionów! W obszerniejszych tekstach, o szerszej zawartości merytorycznej łatwiej znaleźć na nie odpowiedź.

 

Unikalność (duplikacja)

Wartościowa treść musi być unikalna – niepowielona. HubSpot podaje, że ponad 60% konsumentów chętniej kupuje od marek, które posługują się unikalnym contentem. Wagę do oryginalnych treści przywiązuje również Google. Publikacje pojawiające się w sieci sprawdzane są pod kątem unikalności przez roboty wyszukiwarek. Treści oryginalne zajmują wyższe pozycje w wynikach wyszukiwania.

Google doskonali wciąż swoje algorytmy, idąc w kierunku tego, co wartościowe dla użytkownika. Użytkownik ceni z kolei content prezentujący problem w nowy, świeży sposób. Internauta, trafiając któryś raz z kolei na tę samą treść, będzie ją odrzucał. Stawiamy wyszukiwarce pytania, na które próbujemy znaleźć odpowiedź. Nie szukamy tego, co jest już nam znane. Toteż zduplikowany content nigdy nie będzie niósł za sobą wartości poznawczej, jaką posiadają treści autorskie.

 

Stosowanie fraz kluczowych

Google próbuje możliwie najlepiej dopasować wyniki wyszukiwania do stawianych zapytań. Aby treści zajmowały wysokie pozycje w rankingach, muszą zawierać odpowiedzi na pytania użytkowników. Podstawą przy tworzeniu tekstów, które mają dystrybuować się dzięki widoczności w Google, jest dobór fraz kluczowych.

Korzystnie jest tworzyć treści o wąskim zakresie tematycznym, zawierające ściśle powiązane ze sobą frazy. Przykładowo, pisząc o chorobach układu oddechowego, lepiej jest skupić się na jednej chorobie i opisać ją szczegółowo, niż próbować zmieścić w jednym artykule wszystkie możliwe dolegliwości układu oddechowego.

Tekst należy zoptymalizować pod kątem fraz kluczowych, zwracając uwagę, aby pojawiły się zarówno w tytule, nagłówkach, jak i w treści poszczególnych akapitów. Istotne jest odpowiednie zagęszczenie fraz. Nie mogą być one wyczuwalne dla użytkownika, a więc powinny występować naturalnie. Optymalnie stosuje się frazę kluczową raz na ok. 700 znaków tekstu. Jeśli frazy są bardzo zbliżone do siebie, zagęszczenie należy zmniejszyć do występowania raz na ok. 1 000 – 1 500 znaków. Wskazane jest stosowanie fraz w odmianie, a także używanie ich synonimów.

Nie należy zapominać także o elementach optymalizacji podstrony z publikacją. Dla uzyskania lepszej widoczności w wynikach wyszukiwania zaleca się także, aby frazy wystąpiły w title, description oraz atrybutach alt obrazów stosowanych w tekście.

 

Różnorodność treści

Badania pokazują, że treści prezentujące zróżnicowany materiał o wiele bardziej angażują użytkowników. Od stopnia różnorodności contentu zależna jest zarówno liczba odsłon publikacji, jak i długość wizyty na stronie. Kissmetrics dowodzi, że obrazy zwiększają liczbę odsłon artykułu aż o 94%. Z kolei według Mist Media materiał wideo wydłuża pobyt na stronie średnio o 88%!

Zróżnicowanie treści ma także wpływ na liczbę domen linkujących. Im większa różnorodność, tym chętniej użytkownicy dzielą się nimi. Zależność prezentują badania Moz:

backlinki w zależności od contentu

Opracowanie własne na podstawie badań moz.com

Materiał wideo w tekście 3-krotnie zwiększa liczbę linków dochodzących. Filmy, zdjęcia i wypunktowania w tekście to aż 6 razy więcej linków! Dla jeszcze lepszych efektów zaleca się również stosowanie wypunktowań, ramek wyróżniających czy graficznie wyodrębnionych cytatów.

 

Zaangażowanie użytkownika

Od stopnia zaangażowania użytkownika w odbiór treści zależy jej sukces. Zaangażowanie można oceniać na podstawie:

  • liczby odsłon,
  • długości wizyt,
  • udostępnień i cytowań,
  • reakcji w mediach społecznościowych,
  • komentarzy pod tekstem,
  • liczby linków dochodzących.

Jak zadbać o zaangażowanie?

Przede wszystkim powinniśmy skupić się na zaciekawieniu użytkownika. Tytuł, lead i nagłówki to pierwsze na co zwraca się uwagę w kontakcie z publikacją. Powinny zatem być chwytliwe, trafiać w punkt i odwoływać się do zainteresowań odbiorców. Zaangażowaniu sprzyjać będzie również odpowiedni układ treści oraz jej forma. Wiadomo już, że materiał musi być zróżnicowany, ale ważna jest także jego prezentacja: rozmieszczenie, krój, rozmiar, a nawet kolor czcionek. Odbiorca nie może poczuć się przytłoczony nadmiarem contentu, dlatego z formą nie należy przesadzać. Warto zadbać też o to, by dodatkowe komunikaty czy reklamy na stronie nie zakłócały odbioru treści.

Co zrobić, by czytało się lepiej? Przede wszystkim dostosować styl wypowiedzi do grupy docelowej. Inaczej zwrócimy się do odbiorcy tekstów branżowych, inaczej do mam szukających porad na temat wychowania, diety czy zdrowia dzieci. Pozytywnym wrażeniom czytelniczym sprzyjać będzie również posługiwanie się krótkimi zdaniami, używanie strony czynnej czy pomijanie zwrotów pustych znaczeniowych. Bardzo istotne jest przywiązywanie wagi do poprawności językowej i interpunkcyjnej. Błędy znacząco umniejszają wartości tekstu, nawet jeśli jest poprawny pod względem merytorycznym.

Zadawanie pytań, sięganie po elementy kontrowersji czy podejmowanie prób oceny, skłaniają do interakcji z tekstem. Istotne jest wówczas, aby dać użytkownikom możliwość komentowania i aktywnie włączać się do dyskusji. Warto zastosować powiązanie z kanałami social media, w których odbiorcy będą mogli podzielić się swoimi spostrzeżeniami z grupą znajomych, rozszerzając tym samym zasięg odbiorców publikacji.

 

Dystrybucja treści

Dotarcie z przekazem do grupy docelowej zależne jest od odpowiedniej dystrybucji treści. Stosowanie fraz kluczowych w tekstach oraz optymalizacja podstrony z publikacją pod kątem SEO, zapewniają jej widoczność w wynikach organicznych. Gdzie jeszcze promować treść?

Media społecznościowe – są nieocenione w budowaniu publiczności. Post na fan page z krótką, ale chwytliwą zapowiedzią publikacji może szybko i znacząco rozszerzyć grono odbiorców. Możesz skorzystać z Facebooka, Twittera czy LinkedIn.

Newsletter – sprawdza się zwłaszcza w przypadku bloga. Informując użytkowników o nowej publikacji w atrakcyjny wizualnie i merytorycznie sposób, zachęca się ich do lektury. Przynoszą sukcesy w utrzymywaniu długofalowej relacji z klientem.

Odesłania wewnętrzne – to linki w witrynie, jedynie wzmiankujące użytkownikom publikacje szerzej wyjaśniające dany temat. Zainteresowanie odbiorcy można wykorzystać, poddając go dalszemu procesowi edukacyjnemu. Procentuje to lojalnością klientów.

Platformy reklamowe – płatna reklama pozwala na szybkie wypromowanie publikacji w wynikach wyszukiwania (Google AdWords), sieciach kontekstowych (Google Display Network, AdKontekst),  sieciach reklamy natywnej (np. ContentStream, Plista) czy mediach społecznościowych (Facebook). Pozwala precyzyjnie kierować kampanię z dokładnym dookreśleniem wieku, lokalizacji, płci czy zainteresowań grupy docelowej.

Publikacje zewnętrzne i informacje prasowe – publikowanie w serwisach o szerszych zasięgach odbiorców, dopasowanych tematycznie do zagadnień podejmowanych w tekście pozwala dotrzeć z przekazem do większego grona osób, będących targetem. Jest to również doskonały sposób promowania brandu czy produktu.

Im szersza dystrybucja treści, tym większa szansa na pozyskanie wartościowych linków i wzmocnienie pozycji w wynikach wyszukiwania. To również możliwość zbudowania silnej marki, otoczenia się gronem lojalnych i świadomych klientów, a co za tym idzie – możliwość zwiększenia sprzedaży.

 

Odesłania

Angażujące treści szybko zdobywają aprobatę użytkowników, objawiającą się m. in. licznymi odesłaniami do publikacji. Treści wirusowe dystrybuują się same dzięki udostępnieniom i cytowaniu przez internautów.

Każde odesłanie to link dochodzący do witryny, który buduje jej autorytet w wynikach wyszukiwania. Różnorodne i unikalne źródła linków są bardzo wartościowe dla Google. Wraz ze wzrostem liczby linków, wzrasta również pozycja w SERP’ach. Zależność zbadało Backlinko:

liczba domen linkujących a pozycja w Google

 Wpływ liczby domen linkujących na pozycję w Google; źródło: backlinko.com

Interesujące i chwytliwe treści tworzą szerokie pole pozyskiwania wartościowych linków. Szczególnie treści evergreen sprzyjają temu procesowi: zdobywają linki dochodzące przez cały okres publikacji, w którym treść jest aktualna.

Optymalizacja podstron

Frazy kluczowe

Wyznaczenie oczekiwanej listy fraz kluczowych, na które chcemy budować widoczność w wyszukiwarce, to dopiero początek drogi. W kolejnym kroku należy wyszukać w obrębie serwisu podstrony, które będą pod nie optymalizowane. Ważnym jest, by ich zawartość w pełni odpowiadała frazom. Zazwyczaj przyjmuje się zasadę, że daną podstronę optymalizuje się pod jedną, maksymalnie dwie główne frazy oraz kilka rozbudowanych, ale bliskoznacznych. Przykładowo podstronę produktową w banku dla kredytu gotówkowego można zoptymalizować dla „kredyt gotówkowy”, „kredyty gotówkowe”, „tani kredyt gotówkowy”, ale poprawnym wyborem nie będzie „porównanie kredytów gotówkowych”.

Jeśli natomiast nie udało się dobrać odpowiednich podstron do fraz, oznacza to, że albo trzeba stworzyć brakujące podstrony lub dobór nie był trafny w stosunku do posiadanych treści w witrynie.

 

Kanibalizacja

Kanibalizacja słów kluczowych jest negatywnym efektem błędnej optymalizacji stron docelowych. Skutkuje obniżeniem pozycji w wynikach Google na dane słowa lub cyklicznymi zmianami zaindeksowanej podstrony. Wynika z optymalizacji dwóch lub więcej stron docelowych na takie same frazy, co prowadzi do zaindeksowania w wynikach wyszukiwania na nie kilku podstron witryny na dalekich pozycjach.

Przykładowo optymalizacja dla fraz:

  • szybki kredyt gotówkowy
  • szybkie kredyty gotówkowe
  • kredyt gotówkowy szybko

powinna zostać wykonana dla jednej strony produktowej witryny, a nie trzech.

Każda podstrona zawsze powinna zostać optymalizowana pod inne grupy bliskoznacznych słów kluczowych.

 

Title

Tytuł (ang.  title) to element sekcji Head w kodzie podstrony widoczny na zakładkach przeglądarki i w wynikach wyszukiwania jako tytuł każdego wyniku.

Meta title - tytuł strony

Title widoczny w oknie przeglądarki, źródło: opracowanie własne

Tytuł - title w Google SERP

Title widoczny w wynikach wyszukiwania Google, źródło: opracowanie własne

tag title w kodzie strony

Title w kodzie podstrony, źródło: opracowanie własne

Zalecana długość tagu title wynosi zazwyczaj do 70 znaków. Powinien zawierać w sobie najważniejszą pozycjonowaną frazę dla podstrony, ale jednocześnie dokładnie odpowiadać zawartości podstrony. Nie wolno masowo umieszczać w nim słów kluczowych, ponieważ może skutkować to nałożeniem sankcji przez algorytm wyszukiwarki. Dostosowaniu powinny podlegać wszystkie wartościowe podstrony witryny, każda z nich powinna mieć unikalny title.

 

Meta description

Meta tag description, element sekcji Head, często nazywany opisem podstrony. Nie ma on bezpośredniego wpływu na pozycje podstrony w rezultatach wyszukiwania, ale wpływa na współczynnik klikalności (CTR), gdyż jego treść widoczna jest pod tytułami stron w wynikach wyszukiwania.

Opis meta description w Google SERP

Meta description podstrony widoczny w wynikach wyszukiwania, źródło: opracowanie własne

 meta description w sekcji head

Meta description w kodzie HTML podstrony, źródło: opracowanie własne

Description powinien być unikalny w obrębie każdej podstrony oraz zawierać najważniejsze frazy kluczowe. Zostaną one pogrubione w prezentowanych użytkownikowi rezultatach. Dobry opis zachęca internautę do wejścia na stronę poprzez zawarcie w nim nie tylko benefitów oferty czy najważniejszych cech produktu lub usługi, ale również nawołania do działania (CTA, ang. call to action), np. „sprawdź ofertę”.  Na wielu stronach internetowych pominięto description lub zastosowano szablonowy, ten sam zduplikowany opis na każdej podstronie. Ogranicza to pozyskiwany ruch. Nie należy na siłę upychać zbyt wielu słów kluczowych w meta opisie. Rekomendowana długość wynosi do 160 znaków ze spacjami. Maksymalna dopuszczalna długość to 200 znaków.

 

Meta keywords

Keywords (słowa kluczowe) to kolejny element sekcji Head, nie jest on czynnikiem branym pod uwagę przez algorytmy wyszukiwarki Google. Niemniej jednak można wykorzystywać ten meta tag, gdyż korzystają z niego niektóre mniej zaawansowane wyszukiwarki internetowe oraz wbudowane wewnątrz witryn.  Podobnie jak w przypadku pozostałych elementów Head, należy unikać sztucznego upychania i dublowania fraz w tym znaczniku. Zalecane jest użycie ich od kilku do kilkunastu na danej podstronie.

 

Nagłówki H1-H3

Są elementami kodu podstrony w sekcji Body. Ich zastosowanie pozwala na wyróżnienie poszczególnych sekcji treści oraz sformatowanie treści w sposób hierarchiczny. H1 jest nagłówkiem o nadrzędnym znaczeniu, który powinien stanowić podsumowanie treści znajdującej się na danej podstronie. To właśnie w tym miejscu powinny się znaleźć główne frazy kluczowe. Nie powinno stosować się więcej niż jednego H1 na podstronie. Pozostałe nagłówki służą do wyróżniania mniej istotnych elementów witryny np. podtytułów i dalszych zagłębień w treści. Mogą pojawiać się wielokrotnie. Zalecane jest stosowanie nagłówków rzędu od pierwszego do trzeciego (H1-H3), pozostałe można pominąć. Zalecane jest umieszczanie słów kluczowych w miarę możliwości we wszystkich nagłówkach, najważniejsze z nich należy umieścić w H1, pozostałe w nagłówkach niższego rzędu. Również w tym wypadku nie należy sztucznie upychać i dublować fraz. Częstym błędem jest stosowanie nagłówków Hx w elementach nawigacji, nagłówka oraz stopki strony. Ich zastosowanie powinno ograniczyć się wyłącznie do treści właściwej podstrony.

Nagłówki H1 - H3 na stronie

Przykład podstrony z oznaczonymi nagłówkami dzięki wtyczce do przeglądarki Web Developer, źródło: opracowanie własne

Struktura nagłówków w kodzie strony

Struktura nagłówków przedstawiona dzięki wtyczce do przeglądarki Web Developer, źródło: opracowanie własne

 

Pliki graficzne

Wielkość plików graficznych załadowywanych na każdej podstronie powinna być dostosowana pod kątem jak najszybszego wczytywania. Pliki ze zdjęciami powinny być przechowywane w formatach skompresowanych np. JPG lub PNG. Dodatkowo unikać należy stosowania obrazów o zbyt dużej rozdzielczości. Każdy z nich powinien być opisany w kodzie atrybutami alt, wykorzystując do tego słowa kluczowe zgodne z przedstawianą zawartością, tak aby wyszukiwarki mogły „zrozumieć”, co się na nich znajduje. Dobrą praktyką jest stosowane nazw plików również zawierający frazy. Wystrzegać należy się jednak ich „upychania”.

 

Adres URL

Każdy adres URL powinien zawierać główne frazy kluczowe, na które podstrona ma być widoczna w wyszukiwarce. W celu oddzielenia członów (pojedynczych słów) w nim zawartych należy używać myślników zamiast podkreślników. Zdarza się, że w przypadku zastosowania tych drugich, Google potraktuje oddzielone słowa jako jeden wyraz. URL powinien być zwięzły, możliwie krótki i adekwatny – odwiedzający powinien być w stanie od razu stwierdzić, o czym traktuje dana strona.

Pozyskiwanie linków do strony z innych witryn internetowych jest jednym z najważniejszych elementów procesu pozycjonowania. Nawet najbardziej dokładna i rozległa optymalizacja SEO serwisu i dostosowanie go do najbardziej aktualnych wymogów Google zazwyczaj okazują się niewystarczające do osiągnięcia top 10 wyników w przypadku konkurencyjnych fraz kluczowych. Z tego względu działania link building mają kluczowe znaczenie dla skuteczności pozycjonowania oraz czasu uzyskania dobrych rezultatów. W zakresie pozyskiwania linków dochodzących do najważniejszych kwestii należą:

  • Źródła odnośników – istotne jest, aby były zróżnicowane, a więc obejmowały witryny różnego typu jak np. portale branżowe, blogi, katalogi itd.
  • Tematyczność – linki z serwisów powiązanych tematycznie z pozycjonowaną stroną mają większą wartość dla algorytmu Google dlatego przynoszą lepsze rezultaty w kontekście SEO.
  • Rodzaje linków – warto pozyskiwać odnośniki o różnej formie tzn. tekstowe, obrazkowe, przekierowania, formularze.
  • Anchor text – nazywany inaczej tekstem zakotwiczenia jest bardzo istotnym parametrem linków dochodzących. Odpowiedni zakres i proporcje w obrębie anchor tekstów backlinków w znacznym stopniu wpływają na skuteczność kampanii link building.
  • Nofollow / dofollow – odnośniki posiadające atrybut „nofollow” nie przekazują „mocy” linkowanej stronie, jednak nie oznacza to, że nie należy ich pozyskiwać w procesie pozycjonowania. Stosowanie linków typu „nofollow” w określonych sytuacjach zostało wyraźnie zaakcentowane we wskazówkach jakościowych Google dla webmasterów.

Wszelkiego rodzaju techniki wpływania na ranking witryny, które są niezgodne ze wspomnianymi wytycznymi jakościowymi Google, określa się mianem Black Hat SEO. Ze względu na coraz skuteczniej wykrywające manipulacje algorytmy Google, stosowanie tych metod wcześniej lub później zwykle kończy się nałożeniem kary. Działania związane z budową i zachowaniem witryny, zabronione przez Google, to m.in.:

Ukryty tekst i linki

 Google może nałożyć karę w sytuacji:

  • ukrycia tekstu za obrazkiem,
  • zastosowania koloru czcionki w takim samym kolorze, jak kolor tła,
  • zastosowania czcionki o wielkości zerowej lub minimalnej,
  • zamieszczenia tekstu poza obszarem ekranu przy użyciu stylów CSS, aby treść pozostała niewidoczna dla osób odwiedzających witrynę,
  • ukrywania linków w niewielkich elementach witryny.

ukryty link - przykład

Przykład linku na stronie ukrytego w niedużym, mało widocznym obrazku graficznym, źródło: opracowanie własne

Upychanie fraz kluczowych (ang. keyword stuffing)

Google może ukarać witrynę za zbyt duże nagromadzenie słów kluczowych zarówno w treści, jak i w kodzie strony np. w meta tagach lub tekstach alternatywnych obrazków (alt). Poniżej przykład upychania fraz kluczowych prezentowany przez Google:

„Sprzedajemy niestandardowe skrzynki na cygara. Nasze niestandardowe skrzynki na cygara są ręcznie robione. Jeśli myślisz o kupnie niestandardowej skrzynki na cygara…”.

Skopiowana treść

Zawartość witryn jest skrupulatnie analizowana przez algorytmy Google. Wyszukiwarka może nałożyć sankcje, gdy:

  • strona zawiera jedynie treści pochodzące z innych serwisów,
  • witryna jest bogata w treści, ale niewiele z nich jest unikalnych i wartościowych dla użytkowników serwisu,
  • w serwisie zamieszczane są treści pochodzące z innych witryn zmienione wyłącznie w niewielkim stopniu,
  • na stronie znajdują się wyłącznie przekopiowane filmy, zdjęcia lub inne materiały, bez dodatkowych treści wartościowych dla użytkownika.

Automatycznie generowane treści

Google może także nałożyć karę na witryny zawierające treści:

  • powstałe przez automatyczne przekształcanie treści lub dopasowywanie synonimów,
  • stworzone przez oprogramowania i złożone ze zdań lub akapitów nietworzących spójnej, logicznej całości, często przesyconej słowami kluczowymi,
  • utworzone poprzez zduplikowanie treści z wyników wyszukiwania lub kanałów RSS,
  • stworzone za pomocą tekstu, który został automatycznie przetłumaczony przez maszynę i nie został zweryfikowany przez człowieka.

automatycznie generowana treść - przykład

Przykład automatycznie generowanej treści na stronie, źródło: opracowanie własne

Maskowanie (ang. cloaking)

Istotą maskowania jest prezentowanie odmiennej treści lub adresów url użytkownikom oraz robotom wyszukiwarek. Efekt maskowania może być taki, że internauci wchodzący na daną stronę widzą inne niż oczekiwane przez nich treści. Te są widoczne wyłącznie przez roboty Google i służą jedynie do poprawienia pozycji w wynikach wyszukiwania.

Jeden z głównych sposobów maskowania polega na prezentowaniu różnych tekstów czy słów kluczowych (lub ich brak) w zależności, czy stronę przegląda robot Google, czy użytkownik. Cloakingiem możemy nazwać także prezentowanie robotom wyszukiwarek wersji tekstowej strony, a użytkownikom obrazków lub animacji Flash.

Strony przejściowe (ang. doorway pages)

Strony przejściowe to podstrony tej samej witryny, różne domeny lub ich kombinacja, przekierowujące do innego miejsca. Strony te są dedykowane robotom wyszukiwarek po to, aby osiągać wysokie pozycje w wynikach wyszukiwania dla konkretnych fraz, a ruch przekierować do strony docelowej. Doorway pages są popularne w programach afiliacyjnych (szczególnie tych prezentujących produkty z branży finansowej).

Tworzenie stron przejściowych jest przez Google uznawane za spam obniżający jakość wyników wyszukiwania. W związku z tym w połowie marca 2015 r. koncern zapowiedział planowaną zmianę algorytmu, aby skuteczniej walczyć z problemem stron przejściowych.

doorway page - strona przejściowa

Przykład dwóch bardzo podobnych podstron w serwisie typu doorway, źródło: opracowanie własne

System wymiany linków (SWL)

Platformy online, potocznie określane SWLami, pozwalają na zamieszczanie linków kierujących do serwisów zewnętrznych, umożliwiając pozyskanie w krótkim czasie ogromnej liczby linków przychodzących. Korzystanie z platform wymiany linków jest ryzykowne, gdyż Google podejmuje coraz więcej skutecznych działań zwalczających te praktyki.

Kary ręczne

Kara ręczna, często nazywana też filtrem ręcznym,  nakładana jest przez pracownika Google ds. jakości wyników (SQTang. Search Quality Team). O jej nałożeniu dowiadujemy się poprzez komunikat w narzędziu Google Search Console w zakładce „Działania ręczne”. Kara ręczna zazwyczaj jest nakładana w przypadku gdy wykryto:

  • Nienaturalne linki prowadzące do witryny lub z niej wychodzące,
  • Ukryty tekst lub upychanie słów kluczowych,
  • Automatycznie generowane treści lub tworzenie ich kopii (czysty spam),
  • Maskowanie treści lub grafiki (wyświetlanie innych użytkownikom i innych robotom wyszukiwarek),
  • Podstępne przekierowania (cloaking),
  • Spam tworzony przez użytkowników (np. treści generowane automatycznie, zawierające masowe linki zewnętrzne),
  • Atak hakerów na witrynę.

Kara ręczna Google - powiadomienie w GSC

Przykład komunikatu wysyłanego po wykryciu czystego spamu, źródło: opracowanie własne

 W komunikacie wystosowanym przez Google po nałożeniu sankcji na witrynę znajduje się również informacja, czy dotyczy ona całej strony (Dopasowania w całej witrynie), czy jedynie wybranych podstron oraz linków dochodzących (Dopasowania częściowe).

Kara algorytmiczna

Kara algorytmiczna, zwana również filtrem algorytmicznym, jest sankcją dużo bardziej dotkliwą niż kara ręczna. Przede wszystkim dlatego, że skutki jej nałożenia są zazwyczaj odczuwalne dużo dłużej (nawet przez rok lub więcej). Znacznie trudniej także znaleźć dokładną przyczynę zastosowania sankcji, a więc trudniej ją wyeliminować. Zwłaszcza że w tym wypadku Google nie informuje o karze. Nałożenie sankcji można zdiagnozować w przypadku znacznego spadku ruchu organicznego będącego efektem obniżenia pozycji całej witryny lub na szereg fraz kluczowych. Często okresy wystąpienia spadków pokrywają się z datami aktualizacji algorytmów Google. Obecnie niektóre algorytmy działają wedle deklaracji Google w czasie rzeczywistym, w związku z tym restrykcje mogą zostać nałożone w każdej chwili.

Filtr algorytmiczny może zostać nałożony w przypadku wykrycia niedozwolonych metod linkowania lub manipulacji w zawartości strony. Wykrywanie zabronionych działań jest możliwe dzięki specjalnym algorytmom rozwijanym przez wyszukiwarkę. Ich liczba stale rośnie. Działania Google wymierzone w nieuczciwych pozycjonerów stają się więc coraz bardziej efektywne. Najwięcej sankcji jest nakładanych w wyniku działań algorytmów: Panda, Pingwin, a także Page Layout (Top Heavy).

Przystępując do pozycjonowania strony, należy zdawać sobie sprawę, że jest to proces długotrwały i wymagający ciągłych działań. Niestety nie ma możliwości, by jednoznacznie określić dokładny czas, jaki będzie potrzebny do osiągnięcia pierwszej pozycji czy czołowej dziesiątki wyników Google, ponieważ jest to zależne od bardzo wielu czynników. Oprócz wspomnianych sygnałów rankingowych, należą do nich także m.in. wiek i historia domeny, popularność fraz kluczowych, poziom konkurencji i wiele, wiele innych.

Jedno z badań, przeprowadzone przez twórców narzędzia SEO „Ahrefs”, pokazuje, iż tylko 5,7% spośród 2 mln analizowanych stron w ciągu roku od momentu wykrycia przez narzędzie, uzyskało pozycje w top 10 Google dla co najmniej 1 frazy kluczowej.

Pozycje w Google po 1 roku

Widoczność stron w Google po 1 roku wg pozycji, źródło: ahrefs.com

Większość spośród tego wąskiego grona witryn, które na przestrzeni roku zdobyło pozycje w czołowej 10 rezultatów potrzebowało na to od 2 do 6 miesięcy. Szczegółowe omówienie badania wraz z zależnościami czasowymi związanymi z konkurencyjnością fraz kluczowych, wiekiem domeny oraz jej profilem backlinków przedstawiamy pod adresem: https://www.semtec.pl/ile-czasu-zajmuje-wypozycjonowanie-strony/.

Fakt, iż na znaczące efekty pozycjonowania strony nie można zwykle liczyć już po kilku tygodniach potwierdził niedawno sam Google w oficjalnym materiale wideo. Stwierdzono w nim, że w większości przypadków specjaliści SEO potrzebują od 4 do 12 miesięcy na pomoc firmie we wdrożeniu usprawnień i odnotowanie płynących z nich korzyści dla poziomu widoczności strony w wyszukiwarce:

Poradnik Google w zakresie wyboru partnera SEO, źródło: youtube.com

Czas potrzebny na wypozycjonowanie strony

Wypowiedź przedstawiciela Google na temat czasu potrzebnego w działaniach SEO, źródło: opracowanie własne.

Więcej na temat przebiegu i specyfiki pozycjonowania oraz porad od Google dotyczących wyboru agencji SEO znaleźć można w naszym wpisie „Jak wybrać agencję SEO? Zobacz, co radzi Google!”.

SEOquake

Często używanymi narzędziami do optymalizacji stron internetowych są pluginy do przeglądarek. Wiele użytecznych wtyczek jest dostępnych za darmo, a jedną z najpopularniejszych jest SEOquake. Pozwala na szczegółową analizę rozmaitych parametrów strony istotnych z punktu widzenia SEO. Umożliwia m.in. weryfikację pozycji strony w rankingach Alexa lub SEMrush, a także liczbę stron, które są zaindeksowane w wyszukiwarkach Google, Bing czy Yahoo. Przedstawia najważniejsze informacje o elementach kodu na stronie, np. o meta tagach i nagłówkach, oraz analizuje nasycenie słowami kluczowymi. Dodatkowo użytkownik może sprawdzić informacje o linkach zewnętrznych i wewnętrznych dla badanej podstrony.

Narzędzie SeoQuake

Ekran główny SEOquake, źródło: opracowanie własne

Audyt online SEMTEC

Narzędzie przygotowane przez agencję SEMTEC, które jest dostępne online za darmo. Można z jego pomocą uzyskać wiele informacji, które przy pozycjonowaniu będą bardzo pomocne. Narzędzie przeprowadza szybki techniczny audyt SEO strony. Wystarczy wpisać adres URL strony, żeby uzyskać wyniki analizy ponad 40 elementów strony, które mają mniejszy lub większy wpływ na jej pozycję w wynikach wyszukiwania. Audyt online nie tylko weryfikuje rozmaite czynniki związane z konstrukcją, działaniem i treścią wskazanej strony, ale też prezentuje wyjaśnienia i wyświetla podpowiedzi, co sprawia, że uzyskane wyniki audytu są czytelne także dla osób, które nie znają zagadnień SEO. Warto dodać, iż narzędzie bada jedynie część czynników, dodatkowo niektóre z nich w dość dużym stopniu ogólności. W związku z tym nie zastąpi pełnego audytu SEO witryny, którego nie da się wykonać w sposób automatyczny – analizę musi wykonać specjalista.

Audyt SEO SEMTEC

Zrzut ekranu wyniku analizy narzędzia audytującego, źródło: opracowanie własne

Google PageSpeed Insights

Aplikacja online służąca do testów wydajności strony, zarówno w wersji na komputery stacjonarne, jak i na urządzenia mobilne. Pozwala poprawić czas ładowania strony, czyli jeden z istotnych czynników rankingowych wyszukiwarki Google. Narzędzie działa na podstawie analizy budowy i zasobów strony, a następnie przedstawia użytkownikowi ocenę wraz z konkretnymi wskazówkami, jak poprawić określone elementy, dzięki czemu można zwiększyć jej szybkość.

Google PageSpeed Insights

Zrzut ekranu z wyników analizy narzędzia PageSpeed Insights, źródło: opracowanie własne

Screaming Frog

Zaawansowany program, który służy do badania zarówno całej struktury witryny, jak i elementów poszczególnych podstron. Wykorzystywany w szczególności podczas pełnego audytu SEO. Szczególnie dobrze sprawdza się, kiedy musimy zoptymalizować bardzo duże serwisy, które mają setki lub więcej podstron. Płatna wersja, bez limitów, umożliwia automatyczne przeskanowanie nawet bardzo rozbudowanych witryn. Efektem jest szczegółowa analiza informacji istotnych dla skutecznego pozycjonowania strony np. na temat tytułów (title), meta opisów (description), meta keywords, zawartości nagłówków i ich powtórzeń. Program sprawdza ich długość i wykrywa ewentualne duplikaty. Dostajemy też informacje o kodzie odpowiedzi serwera i ewentualnych adresach przekierowań, zawartości meta tagu robots, liczbie słów użytych na stronach oraz adres kanoniczny czyli tzw. link rel canonical.

Narzędzie SEO Screaming Frog

Widok okna programu Screaming Frog, źródło: opracowanie własne

Google Analytics

Podstawowym celem kampanii SEO jest zwiększenie ruchu pozyskanego na rzecz witryny z naturalnych wyników wyszukiwania. Do pomiaru i analizy ruchu, nie tylko z tego źródła, najczęściej wykorzystywany jest darmowy Google Analytics.

Panel Google Analytics

Raport w Google Analytics prezentujący ruch w podziale na kanały, źródło: opracowanie własne

Dzięki szeregowi raportów i opcjom filtrowania możemy prześledzić np. jaki jest poziom ruchu organicznego z podziałem na poszczególne wyszukiwarki, a także, na jakie podstrony trafiali użytkownicy. Parę lat temu można było także sprawdzić informacje na temat słów kluczowych i przypisanych do nich parametrów jakości ruchu, jak. głębokość i czas wizyty, współczynnik odrzuceń oraz efektywności – m.in. liczby konwersji, współczynników celów oraz transakcji, ich wartości, czy też ROI. Aktualnie nie ma takiej możliwości, frazy zostały ukryte w grupie „not provided”.

Google Analytics - Not provided

Raport słów kluczowych dla wyników organicznych w Google Analytics, źródło: opracowanie własne

Zmusza to do analizy ruchu na poziomie źródeł – poszczególnych wyszukiwarek. Można ten problem częściowo rozwiązać, łącząc usługę Google Analytics oraz konto Google Search Console. Dzięki temu w panelu Analytics zostaną zaimportowane dane z tego narzędzia – frazy kluczowe wraz z poziomem ruchu, bez parametrów jakościowych i efektywnościowych.

Google Search Console

Najważniejsze narzędzie dla specjalistów SEO. Jego podstawową funkcją jest „komunikacja” między właścicielem strony lub jej opiekunem a wyszukiwarką. Wspomniana komunikacja jest niestety głównie jednostronna. Oprócz powiadomień od Google znajdziemy tutaj dane dotyczące analityki wyszukiwania: frazy kluczowe oraz strony docelowe wraz z metrykami. Wśród nich są kliknięcia, wyświetlenia, CTR oraz średnia pozycja.  

Google Search Console - wyszukiwania

Zrzut ekranu, zakładka „Analityka wyszukiwania” w Search Console, źródło: opracowanie własne

Prezentowane wykresy pozwalają szybko zweryfikować czy widoczność witryny na frazy, pozycje strony i ruch organiczny z Google się zwiększają. Inna, przydatna opcja w GSC do mierzenia wyników działań SEO to filtrowanie słów kluczowych. W ten sposób można usunąć z analizy frazy, które zwierają nazwy brandowe (firmy lub marki) i sprawdzić zmiany w widoczności i liczbie odwiedzin fraz, które są związane z zawartością witryny, produktami lub usługami. Przy czym warto pamiętać, że większa liczba zapytań brandowych może być efektem pozycjonowania strony, którego dodatkową korzyścią jest często zwiększenie rozpoznawalności.

Mankamentem Google Search Console jest to, że udostępniane tam dane często są niedokładne i niespójne. Poza tym narzędzie GSC ma różne ograniczenia, np. wyświetla i daje możliwość eksportu raportów dla nie więcej niż 999 fraz kluczowych, a jego zakres informacji obejmuje jedynie 90 ostatnich dni.

SEMSTORM

Ze względu na ograniczenia Google Search Console warto wypróbować narzędzie SEMSTORM. Już w bezpłatnej opcji możemy z jego pomocą sprawdzić wiele praktycznych danych, np. dokładną listę fraz, na które strona była widoczna w top 50 wyników Google w poszczególnych miesiącach od września 2013 r.

Panel narzędzia SEMSTORM

Panel informacyjny SEMSTORM dla analizowanej witryny, źródło: opracowanie własne

Dostęp do funkcjonalności SEMSTROM wymaga złożenia konta. Warto to zrobić, żeby uzyskać dostęp do zestawienia słów kluczowych danej witryny, pozycji witryny uzyskanej dla poszczególnych fraz, ich miesięcznej liczby wyszukiwań oraz szacowanego generowanego ruchu. Dane można wyeksportować i sprawdzić, które podstrony są widoczne dla konkretnych fraz. Dzięki temu SEMSTORM to kolejny sposób, żeby ominąć problem „not provided”.

Dane dotyczące szacowanego ruchu należy traktować jako przybliżone, uśredniane są one bowiem na podstawie m.in. średniej liczby wyszukiwań, pozycji frazy kluczowej i szacowanego CTR. Nie uwzględniają choćby różnicowanego poziomu tego ostatniego parametru dla różnych fraz brandowych, czy też obecności dodatkowych rozszerzeń wyników lub reklam. Dane służą więc do porównywania serwisów pod względem krotności ruchu (np. witryna x generuje ruch trzykrotnie wyższy od witryny y), a nie wniosków o jego dokładnym poziomie.

W branży marketingu online krąży wiele mitów dotyczących pozycjonowania stron internetowych. Odnoszą się do wszelkich aspektów związanych z pozycjonowaniem: czynników rankingowych, optymalizacji witryn, czasu potrzebnego na zdobycie efektów czy gwarancji topowych pozycji. Poniżej opisujemy najczęściej powielane mity SEO, które wprowadzają w błąd klientów, a nawet mniej doświadczonych specjalistów SEO.

Optymalizacja witryny nie jest potrzebna

Poprawnie zbudowana witryna internetowa jest nie tylko lepiej oceniana przez roboty wyszukiwarek, ale też bardziej przyjazna użytkownikom. Brak optymalizacji SEO i pozostawienie w witrynie krytycznych błędów takich jak nieprawidłowe przekierowania, duplikaty stron, nieprawidłowa nawigacja czy brak wartościowych treści może znacznie utrudnić, a nawet uniemożliwić uzyskanie zadowalających efektów pozycjonowania.

Mobilna wersja strony jest niepotrzebna

Konsumenci coraz częściej szukają produktów lub usług na smartfonach i tabletach. Są przy tym niecierpliwi. Jeżeli nie znajdą na Twojej stronie treści, której szukają, szybko przejdą na witrynę konkurencji. Stopień przystosowania do urządzeń mobilnych jest też jednym z czynników rankingowych Google dla wyszukiwarek mobilnych. Oznacza to, że strona nieprzyjazna urządzeniom mobilnym będzie zajmować niższe pozycje, tracąc tym samym znaczną część ruchu organicznego.

Prędkość ładowania strony nie jest ważna

Szybko ładująca się strona służy z jednej strony użytkownikom, którzy w krótszym czasie mogą zapoznać się z ofertą firmy, z drugiej – robotom Google, które szybciej mogą ocenić, czy strona zawiera poszukiwane przez użytkownika treści. Szybkość ładowania strony jest jednym z czynników rankingowych Google, co oznacza, że może mieć wpływ na jej pozycję w wynikach wyszukiwania. W sytuacji kiedy wynik prędkości będzie niski (sprawdzając w narzędziu Google PageSpeed Insights) należy liczyć się z obniżeniem rankingu strony w Google.

UX strony nie ma wpływu na ranking witryny

User Experience (UX) witryny internetowej to wszystkie elementy, które wpływają na odczucia użytkownika odwiedzającego stronę. Poprawnie wykonane UX obejmuje m.in. przejrzystą strukturę informacji, wygląd, komunikację z użytkownikiem oraz szeroko pojętą łatwość poruszania się w obrębie witryny. Witryna zoptymalizowana pod kątem SEO i UX jest lepiej oceniana przez wyszukiwarki, co pozytywnie wpływa na jej widoczność w organicznych wynikach wyszukiwania.

Mapa strony ma wpływ na pozycję

Mapą strony określamy zarówno plik w formacie XML, jak i podstronę serwisu, które zawierają listę wszystkich (lub najważniejszych) podstron znajdujących się w witrynie. Nie wpływa bezpośrednio na pozycję witryny w wynikach wyszukiwania. Jest jednak bardzo istotnym elementem, gdyż pomaga robotom lepiej zrozumieć strukturę witryny i szybciej ją indeksować.

Po zdobyciu wysokich pozycji można wstrzymać działania SEO

Jest to błędna teza, która często prowadzi do spadku widoczności witryny w organicznych wynikach wyszukiwania. Należy pamiętać, że poza naszą stroną istnieje wiele innych witryn, które stawiają za cel zyskanie widoczności dla analogicznych usług i produktów. W momencie wstrzymania działań SEO kampanie konkurencji mogą być na tyle efektywne, iż „przeskoczą” nasze pozycje. Należy również pamiętać, że część zdobytych linków prowadzących do naszej strony może cyklicznie wygasać, co w konsekwencji wpłynie na obniżenie pozycji w rankingu.

Dobry content wypozycjonuje się sam

Naturalne wypozycjonowanie contentu na topowe pozycje jest rzadko możliwe. Wartościowe treści mają szansę zyskać uznanie wśród czytelników, zdobywając wartościowe sygnały w mediach społecznościowych (udostępnienia, polubienia, komentarze), a nawet linki z witryn czy blogów, jednak to zdecydowanie za mało, aby uzyskać wysokie pozycje w wynikach organicznych generujące wartościowy ruch. Do skutecznego wypozycjonowania contentu konieczna jest zaplanowana kampania SEO skupiająca się na budowie sieci odnośników i optymalizacji treści pod kątem wyszukiwarek.

Page Rank już nie istnieje

Page Rank wciąż istnieje, jednak Google nie publikuje aktualizacji jego wskaźników. Utajnianie publikowania Page Ranku trwało kilka lat. Już w 2007 roku Google  poprosiło użytkowników o opinie na temat pomysłu nieujawniania Page Ranku, w 2009 Google usunięto wyświetlanie Page Rank w Narzędziach dla Webmasterów (obecnie Search Console). W 2012 roku Google przestało aktualizować wyświetlanie Page Ranku, lecz przez przypadek został on zaktualizowany w grudniu 2013. Od tego czasu aktualizacja Page Ranku nie była publikowana.

Warto mieć na uwadze, że pracownicy Google we wszystkich wypowiedziach odnoszą się jedynie do wyświetlania zewnętrznej wartości Page Ranku dla użytkowników.

Linki dochodzące nie dają efektów

Linki zewnętrzne stanowią jeden z ważniejszych czynników rankingowych w Google. Algorytm oblicza „autorytet” witryny, bazując na linkach zwrotnych. W 2014 roku Google próbował obliczać ranking witryn, wykluczając linki dochodzące – jednak jak oświadczył Matts Cutts – wyniki były „dużo, dużo gorsze”. Trzeba pamiętać, że linki niskiej jakości nie podniosą witryny w rankingu, a mogą przyczynić się do obniżenia pozycji lub otrzymania kary od Google.

Linki nofollow są bezwartościowe

W oficjalnej dokumentacji Google przyznaje, że linki nofollow nie przekazują wartości Page Rank – nie oznacza to jednak, że w profilu linków witryny takie odnośniki nie powinny zajmować miejsca. Pozycjonowanie strony powinno opierać się na symulowaniu naturalnych zachowań użytkowników, a ci, tworząc linki, nie wybierają atrybutu odnośnika. Linki nofollow konieczne są do odwzorowania naturalnego profilu linków. Dodatkowo linki te dodane na dużych, popularnych witrynach służą do pozyskania wartościowego ruchu.

Im więcej linków dochodzących, tym lepsza pozycja w Google

Zdecydowanie ważniejsza jest jakość linków, a nie ich liczba. Lepsze efekty przyniesie pięć odnośników z witryn o wysokiej reputacji niż sto linków ze stron stworzonych wyłącznie na potrzeby pozycjonowania. Należy pamiętać, że nagły przyrost dużej liczby linków z podejrzanych lokalizacji może poskutkować karą ze strony Google.

Dane strukturalne mają wpływ na pozycje

Znaczniki danych strukturalnych nie mają wpływu na pozycje strony w wynikach Google, lecz pozwalają na wyświetlanie opisów rozszerzonych (ang. rich snippets) w SERP. Ich celem jest dostarczenie użytkownikowi cennych informacji dotyczących strony czy produktu (cena, dostępność w magazynie czy ocena), tym samym mają znaczny wpływ na poprawę CTR podstrony. Dodatkowo dane strukturalne pomagają robotom Google lepiej zrozumieć budowę i zawartość strony. Ich poprawna implementacja może przyczynić się do zwiększenia ruchu organicznego. Warto pamiętać, że Google może nałożyć na witrynę karą ręczną za np. odnalezienie przez algorytm nieprawidłowych i wprowadzających w błąd użytkownika informacji prezentowanych w danych strukturalnych.

Większa liczba podstron zwiększa widoczność witryny w wyszukiwarce i poprawia pozycje

Liczba podstron w indeksie sama w sobie nie ma bezpośredniego wpływu na ranking witryny i reputację w Google. Nie ma sensu „na siłę” tworzyć nowych podstron z tagami, kopiowanymi treściami czy artykułami o niskiej jakości wyłącznie po to, aby zwiększyć liczbę zaindeksowanych podstron. Oczywiście, im więcej wartościowych podstron, tym większa szansa, że serwis będzie widoczny na większą liczbę słów kluczowych. Jednak tworzenie sztucznych podstron może nawet poskutkować obniżeniem pozycji (na skutek duplicate content, czy kanibalizacji słów kluczowych) oraz zmniejszyć budżet indeksowania (ang. crawl budget).

Gwarancja wysokich pozycji w Google

Żadna profesjonalna agencja nie może zagwarantować określonych pozycji w wynikach organicznych. Pozycję witryny ustala algorytm Google (analizujący ponad 200 czynników), którego zasady działania nie są publiczne i pozostają poufne. Wpłynięcie na ranking witryny utrudniają również częste aktualizacje i poprawki algorytmu – nawet kilkaset w skali roku oraz działania konkurencyjnych witryn, których nie można przewidzieć.

Za odpowiednio wysoką cenę można uzyskać dowolną pozycję na każde słowo kluczowe

Wysoki budżet przeznaczony na pozycjonowanie strony pozwoli podjąć szeroko zakrojone działania SEO, które dadzą szansę na zyskanie wysokich pozycji w Google. Nie można jednak gwarantować wysokiej pozycji dla dowolnej frazy, gdyż ta powinna zostać ustalona w oparciu o tematyczność witryny, jej historię i reputację w Google oraz działania konkurencji.

Social Media wpływa na pozycje w Google

Wbrew wielu opiniom sygnały z portali społecznościowych takie jak udostępnienia, polubienia, komentarze itp. nie mają bezpośredniego wpływu na miejsca osiągane przez stronę w wynikach Google. Nie oznacza to jednak, że należy zrezygnować z aktywności w Social Media. Wręcz przeciwnie, przyczynia się ona m.in. do budowania marki, poprawy rozpoznawalności i zwiększenia ruchu na stronie, a tymi pośrednimi drogami także do większej widoczności w rezultatach wyszukiwarek internetowych. Szczegółowo wyjaśniamy to w artykule „Social Media w służbie SEO?”.

Reklamy AdWords pomagają w pozycjonowaniu

Jest to dość mocno rozpowszechniony mit. W rzeczywistości prowadzenie kampanii reklam Google AdWords nie ma przełożenia na pozycje osiągane przez witrynę w bezpłatnych (naturalnych) wynikach wyszukiwania. Wyświetlanie reklam AdWords w Google opiera się na mechanizmie aukcyjnym, natomiast o kolejności stron w rezultatach darmowych decyduje całkowicie oddzielny algorytm wyszukiwania.

Warto jednak mieć na uwadze, że kampanie AdWords, podobnie jak inne formy reklamy, mogą wpływać na zwiększenie rozpoznawalności marki lub produktu i dotarcie do większej liczby odbiorców. To z kolei przyczynia się do tworzenia naturalnych linków przez użytkowników i pośrednio może wpłynąć korzystnie na SEO. Może przełożyć się również na wejścia organiczne z zapytań brandowych.

W mojej branży tworzenie contentu nie jest przydatne

Wartościowe, przydatne i unikalne treści to obecnie jedne z najważniejszych czynników wpływających na pozycje strony w Google. Dbanie o warstwę contentową witryny jest więc bardzo wskazane niezależnie od rodzaju prowadzonego biznesu. Praktycznie w każdej branży możliwe jest przedstawienie ciekawych faktów, historii, opisów ważnych zagadnień czy innego typu interesujących materiałów związanych z daną działalnością. W niektórych przypadkach może to wymagać większej kreatywności, jednak na pewno przyniesie pozytywne efekty. Oprócz tego, trzeba pamiętać o użytkownikach na różnych etapach procesu decyzyjnego i zadbać również o tych, którzy mają potrzeby, ale nie znają jeszcze konkretnych produktów czy usług. O edukacji potencjalnego klienta zapomina wiele biznesów internetowych.