Google podchodzi na poważnie do kwestii jakości swojego algorytmu oraz rezultatów wyników wyszukiwania. Jednak niektórzy uczestnicy wyścigu po najwyższe pozycje świadomie lub nieświadomie nie przestrzegają odpowiednich reguł. Dla takich osób przeznaczony jest filtr Google. W tym poradniku dowiesz się wszystkiego na temat kar, jakie Google nakłada na strony internetowe.
Czego dowiesz się z artykułu?
- Filtr Google – czym jest?
- Filtr algorytmiczny vs. kara ręczna
- Filtr vs. ban – czym się różnią?
- Co powoduje nałożenie filtra na stronę?
- Filtr ręczny Google vs. algorytmiczny – powody nałożenia
- Filtr Google – jak sprawdzić, czy strona go otrzymała?
- Jak wyjść z filtra?
- Filtr Google – jak długo trwa?
- Filtr Google – podsumowanie
Filtr Google – czym jest?
Jeśli dana strona internetowa nie przestrzega wytycznych Google, nakładana jest na nią kara. Powodom takiej sytuacji przyjrzymy się bliżej w dalszej części artykułu. Więcej na temat wymagań Google możesz z kolei dowiedzieć się tutaj. W efekcie tak nałożonej kary pozycja w wynikach wyszukiwania danej strony zostaje mocno obniżona (zwykle o kilkadziesiąt miejsc). W zależności od sytuacji spadki będą dotyczyć wszystkich fraz kluczowych, na które pozycjonuje się witryna, lub tylko ich części.
Filtr algorytmiczny vs. kara ręczna
Warto zaznaczyć, że kara może zostać nałożona na dwa sposoby. W przypadku filtra algorytmicznego Google automatycznie wykrywa niepoprawne praktyki i podejmuje działania według swojego uznania. Do takich działań często dochodzi po dużych aktualizacjach, jak choćby miało to miejsce przy wprowadzeniu Google Panda oraz Google Pingwin, które to odpowiednio karały za content oraz linki słabej jakości.
Jeśli zaś chodzi o filtr ręczny, to w takiej sytuacji pracownik Google analizuje daną stronę i osobiście podejmuje decyzję o nałożeniu kary. Czymś takim zajmują się członkowie Search Quality Team (SQT). Zadaniem takich osób jest analizowanie witryn pod kątem określonych wytycznych od Google. Ich wnioski oraz obserwacje są uwzględniane w tym, jakie decyzje podejmuje Google w kontekście rozwoju swojego algorytmu. Rozpoznawalny w środowisku SEO Matt Cutts swego czasu zarządzał tym zespołem. Pracownicy Google często losowo dobierają strony do analizy i gdy wykryją naruszenia, podejmują działania. W innych przypadkach do nałożenia filtra ręcznego może dojść po tym, jak dana witryna została dotknięta karą algorytmiczną lub doszło do zgłoszenia naruszenia zasad i członek SQT przyjrzał się sprawie osobiście.
Przykłady filtrów algorytmicznych
Algorytm Google jest stale ulepszany tak, aby wyniki wyszukiwania zwracały jak najlepsze odpowiedzi na zapytania użytkowników. Marketerzy oraz SEO-wcy oczywiście starają się znaleźć jak najskuteczniejsze sposoby, które pozwolą sprawnie uzyskać tę widoczność. Czasami prowadzi to do swoistego wyścigu zbrojeń. Google musi nadążać za stale nowymi technikami i sposobami na zaistnienie w wynikach wyszukiwania, które są w stanie nieraz „wykiwać” algorytm, przez co treści niskiej jakości potrafią zyskiwać dobre pozycje. Niekiedy te techniki są stosowane na taką skalę, że jedynym sposobem na zaradzenie im jest odpowiednio działający algorytmiczny filtr Google. Z tego powodu na przestrzeni czasu wprowadzono kilka kluczowych aktualizacji. Zobacz dwa takie update’y.
Algorytm Panda
Przed 2011 rokiem strony wypełnione skopiowaną, zduplikowaną lub po prostu słabą treścią często zajmowały wysokie pozycje w wynikach wyszukiwania. Generowały ruch, ale nie oferowały użytkownikom wartościowych informacji. Często miały dużo reklam, a za mało treści, co sprawiało, że były bardziej irytujące niż przydatne.
Z tego powodu w 2011 roku filtry Google zostały usprawnione przez aktualizację Panda. Panda miała na celu oczyszczenie wyników wyszukiwania z treści niskiej jakości. Strony, które miały zduplikowaną, płytką lub kiepską treść, zostały ukarane poprzez spadek w wynikach wyszukiwania. Nagradzana z kolei była jakość – im bardziej wartościowa i oryginalna treść, tym lepsze wyniki w SERP-ach.
W efekcie strony, które naprawdę dostarczały użytkownikom użytecznych informacji, zyskały przewagę nad tymi, które szły na łatwiznę lub po prostu liczyły na zyski z reklam.
Algorytm Pingwin
Keyword stuffing i publikowanie mnóstwa treści niskiej jakości nie były jedynymi drogami na skróty do wysokich pozycji. Kolejną szybko wypracowaną techniką pozycjonowania stała się manipulacja tekstami zakotwiczenia (anchor text), czyli słowami zawartymi w linkach prowadzących do strony. Ten lukratywny sposób pozwalał szybko wspinać się na szczyt wyników wyszukiwania.
Z tego powodu w 2012 roku filtr algorytmiczny Google został wzmocniony o aktualizację Pingwin. Jej celem było karanie stron z podejrzanie dużą liczbą linków zwrotnych, które zawierały ten sam tekst zakotwiczenia. Google po prostu uznało, że jeśli setki linków prowadzących do strony zawiera dokładnie te same słowa, to raczej nie jest to naturalne.
Filtr vs. ban – czym się różnią?
Jak brzmi tutaj prosta definicja? Filtr Google to tymczasowa kara, która, choć może trwać całkiem długo, po jakimś czasie zostaje zdjęta. W przypadku bana dochodzi jednak do całkowitego usunięcia danej strony z wyników wyszukiwania. Nie pojawi się ona w SERP-ach nawet wtedy, gdy zawęzimy zapytanie za pomocą odpowiednich komend jak „site:”. Jest tak, gdyż doszło do jej wyindeksowania. Do nałożenia bana dochodzi w skrajnych przypadkach, gdy dana strona nagminnie łamała wytyczne i nie reagowała na ostrzeżenia oraz wcześniej nakładane kary.
Filtr Google i symptomy jego nałożenia
Nałożenie filtra algorytmicznego może nie być oczywiste. Jeśli masz co do tego podejrzenia, zwracaj uwagę na następujące symptomy:
- Gwałtowny spadek liczby odwiedzających stronę z wyników organicznych to jeden z głównych objawów wskazujący na to, że miało miejsce nałożenie filtra Google. Jeśli codziennie odnotowywałeś około 1 000 wizyt, a nagle liczba ta spada do 600 bez wyraźnego powodu, warto sprawdzić, co się dzieje.
- Gdy Twoje strony nagle tracą pozycje dla głównych fraz, zwłaszcza jeśli wcześniej utrzymywały się w TOP wynikach, może to oznaczać, że Twoja strona została ukarana.
- Kiedy dodajesz nowe podstrony, a Google ich nie indeksuje, może to być znak, że Twoja witryna została dotknięta filtrem algorytmicznym.
- Jeśli miało miejsce nałożenie filtra ręcznego, powiadomienie o tym pojawi się bezpośrednio w Google Search Console. Więcej o tym w dalszej części artykułu.
Co powoduje nałożenie filtra na stronę?
Istnieje wiele powodów, dla których Google może podjąć decyzję o nałożeniu kary. Oto główne z nich:
-
Spam wygenerowany przez osoby trzecie
Obecność dużej ilości treści niskiej jakości nie zawsze wynika z tego, że właściciel strony chce manipulować wynikami wyszukiwania. Czasami gromadzi się ona w wyniku działań użytkowników, którzy zamieszczają np. spamerskie komentarze, których celem jest promowanie produktów i usług. W innych przypadkach źródłem takich treści jest atak hakerski. Niezależnie od powodu taki content niskiej jakości jest szkodliwy i Google może podjąć w związku z nim działania.
-
Spam, którego źródłem jest darmowy hosting
Nie ma nic za darmo, dlatego ceną bezpłatnych serwerów zwykle jest to, że hostowane na nich strony są przesycone reklamami i spamem, które negatywnie wpływają na doświadczenie użytkowników. W takich przypadkach Google może podjąć działania nie tylko wobec witryny korzystającej z takich rozwiązań, ale nawet i w stosunku do całej usługi.
-
Thin content – mało treści o niewielkiej jakości
Słabej jakości content w małej ilości nie wskazuje na nic dobrego, gdyż zwykle jest to wspólny element niebezpiecznych witryn, które nie zapewniają odwiedzającym żadnej wartości (np. strony doorway lub niskiej jakości afiliacje). Thin content zwykle powstaje w wyniku innych niezalecanych metod jak automatycznie generowany bezsensowny tekst lub celowe kopiowanie treści z innych witryn.
Przeczytaj także:
Czym jest thin content i dlaczego szkodzi stronie? -
Nienaturalny profil linków
Nienaturalne linki do Twojej witryny to prawdopodobnie jeden z głównych powodów nakładania filtru Google’a od około 10 lat. Może to wskazywać na kupowanie odnośników lub branie udziału w systemach ich wymiany, co jest sprzeczne z ogólnymi wytycznymi. Warto podkreślić, że wyszukiwarka bierze pod uwagę nie tylko źródła linków, ale również anchory stosowane w linkowaniu. Krótko mówiąc, nienaturalne linki to jeden z największych wrogów skutecznego pozycjonowania.
-
Wadliwe dane strukturalne
Dane strukturalne (uporządkowane) to świetny sposób na poprawę widoczności strony w Google. Jeśli jednak zostaną użyte w zły sposób, mogą wprowadzać w błąd i manipulować wynikami wyszukiwania (na przykład gdy dane uporządkowane znajdują się w elementach niewidocznych dla użytkownika).
-
Cloaking (maskowanie)
Jeśli strona prezentuje Google’owi swój jeden wariant, który jest stworzony z myślą o zajęciu wysokich pozycji, ale użytkownikom jest pokazywana jej inna, docelowa wersja, mamy do czynienia z techniką Black Hat SEO. Takie działanie jest sprzeczne z wytycznymi. Maskowanie może też zachodzić na mniejszą skalę i obejmować np. jedynie wybrane grafiki.
-
Ukryty tekst
Google zdecydowanie zabrania ukrywania treści przed użytkownikami za pomocą takich metod jak:
- używanie czcionki o rozmiarze 0,
- chowanie tekstu za obrazem,
- przesuwanie tekstu za pomocą CSS poza wymiary ekranu w rezultacie czego staje się on niewidoczny,
- dodawanie linków w małych znakach jak przecinek i kropka.
-
Keyword stuffing
Keyword stuffing, czyli dodawanie nadmiernej ilości fraz kluczowych w tekście z myślą o lepszym wypozycjonowaniu strony, jest niezgodny ze wskazówkami dla webmasterów. Taka praktyka znacznie pogarsza czytelność i user experience oraz często towarzyszy jej wspomniane wcześniej ukrywanie treści.
-
Niezgodność treści w wariancie AMP
Strona AMP to niejako „odchudzony” wariant docelowej, kanonicznej witryny. Według Google ich treści nie muszą zachowywać niezmienionej formy, ale powinny być zasadniczo bardzo zbliżone. Użytkownicy mają być w stanie podjąć te same akcje na obu wersjach. Jeśli wymagania te nie zostaną spełnione, wobec strony AMP mogą zostać podjęte działania.
Filtr ręczny Google vs. algorytmiczny – powody nałożenia
Czy któraś z powyższych praktyk może w większym stopniu spowodować działanie ręczne niż algorytmiczne? Trudno udzielić tutaj jednoznacznej odpowiedzi. Ogólnie rzecz biorąc, wszelkie kary manualne wynikają z łamania wskazówek dla webmasterów, a algorytm wyszukiwarki jest zaprojektowany tak, że bierze pod uwagę owe wytyczne. Z drugiej strony filtr algorytmiczny może być bardziej „agresywny” i skutkować poważniejszymi zmianami zwłaszcza tuż po wprowadzeniu dużych aktualizacji Google’a. Nie da się raczej przewidzieć, jaką formę przybierze kara. Skupmy się lepiej na tym, jak sprawdzić, czy doszło do nałożenia filtra Google’a.
Filtr Google – jak sprawdzić, czy strona go otrzymała?
Oto 4 główne sposoby na sprawdzenie, czy strona otrzymała filtr Google.
-
Dane z Google Search Console
GSC to główne narzędzie, za pomocą którego Google może komunikować się z webmasterami stron. Właśnie z tego powodu to tutaj należy w pierwszej kolejności wejść, jeśli podejrzewasz, że wobec strony zostały podjęte działania. Nałożony filtr ręczny nie jest na szczęście trudny do wykrycia. Przejdź do zakładki Bezpieczeństwo i ręczne działania > Ręczne działania. Otrzymasz tutaj powiadomienie o ewentualnym nałożeniu takiej kary wraz z informacją o powodzie. Jeśli wszystko będzie w porządku, wyświetli się poniższy komunikat. Za pomocą tego narzędzia możesz także wysłać prośbę o ponowne sprawdzenie witryny (rozpatrzenie zgłoszenia).
Niestety, nie da się otrzymać w Google Search Console podobnie jednoznacznej odpowiedzi dotyczącej obecności filtra algorytmicznego. Jak już ustaliliśmy, kara taka skutkuje spadkiem pozycji, dlatego w przypadku takiego scenariusza skorzystaj z kolejnych metod.
-
Dane z Google Analytics
Google Analytics dostarczy Ci aktualnych i dokładnych danych dotyczących pozycji Twojej strony w wynikach organicznych. Przejdź do Pozyskiwanie > Cały ruch > Źródło/medium. Zawęź źródło ruchu do google/organic i wybierz jak najdłuższy zakres dat. Jeśli w ostatnim okresie doszło do bardzo wyraźnego spadku, coś może być na rzeczy. Dla pewności porównaj problematyczny zakres dat z analogicznymi okresami z poprzednich lat, aby wykluczyć spadki sezonowe.
Przeczytaj także:
Poradnik: Jak nadać uprawnienia do konta Google Analytics? -
Analiza widoczności w wyszukiwarce
Dobrym pomysłem jest skorzystanie z zewnętrznych narzędzi, które mierzą tzw. SEO Visibility, czyli uniwersalny indeks oceniający widoczność danej domeny w Internecie. W przypadku stron o globalnym zasięgu warto w tym celu użyć SearchMetrics. Jeśli jednak chcesz uzyskać lepsze wyniki w kontekście polskiego rynku, platforma SEMSTORM lub Senuto będzie dobrym rozwiązaniem. Podobnie jak w przypadku poprzednich metod, zwróć uwagę na spadki w widoczności, aby ustalić, czy na stronę został nałożony filtr Google. Dane gromadzone przez takie narzędzia nie zawsze są dokładne, dlatego dla pewności warto zebrać je z kilku platform.
źródło: senuto.com
-
Monitorowanie zmian w algorytmie
Jak wspomniano wcześniej, po wprowadzeniu dużej aktualizacji istnieje większa szansa na to, że na strony może zostać nałożony filtr algorytmiczny. Nawet jeśli nie dojdzie do wymierzenia kary, to częste są zwyczajne wahania pozycji licznych stron. W przypadku update’ów nie warto zdawać się na domysły. Lepiej korzystać z przydatnych narzędzi oraz być na bieżąco z wiarygodnymi źródłami informacji. Oto kilka przydatnych linków:
- MozCast – platforma ta gromadzi liczne dane na temat stron internetowych i określa, jaka „pogoda” panuje w przypadku wyników wyszukiwania. Duże wahania pozycji w SERP-ach zwykle wskazują na to, że miał miejsce update. Warto zaznaczyć, że Google nie zawsze informuje o aktualizacjach, więc dobrze jest posiłkować się tym narzędziem.
- Google Algorithm Update History – kolejne przydatne źródło informacji od Moz, na którym znajdziesz uporządkowaną listę wszelkich ostatnich aktualizacji algorytmu.
- John Mueller konto na Twitterze – John Mueller to jeden z „pośredników między Google a resztą świata”. Gdy w Google zachodzą ważne zmiany, zwykle informuje on o tym, wchodzi w dyskusje z użytkownikami, jak i dzieli się przydatnymi poradami.
- Google SearchLiaison konto na Twitterze – oficjalne konto reprezentanta Google, którym jest Danny Sullivan. W przypadku ważnych aktualizacji można spodziewać się od niego wielu przydatnych informacji.
- Danny Sullivan konto na Twitterze – Danny Sullivan posiada też prywatne konto, za którego pośrednictwem także wchodzi w dyskusje na temat SEO.
Jak wyjść z filtra?
W przypadku kar nałożonych ręcznie odwiedź tę stronę i przejdź do „Lista ręcznych działań”. Rozwiń odpowiednią kategorię i zapoznaj się ze wskazówkami zawartymi w podsekcjach „Zalecane działania”. Usuwanie filtra algorytmicznego to znacznie trudniejsze zadanie, gdyż w pierwszej kolejności należy ustalić, w czym tkwi problem. Często może to być kombinacja różnych czynników, dlatego warto przeprowadzić następujące działania.
Audyt SEO
Celem audytu SEO jest dokładna analiza strony pod kątem tego, jak prezentuje się ona z punktu widzenia pozycjonowania. Na etapie tym warto skupić się przede wszystkim na technicznych aspektach jak hosting, indeksowanie, metadane, dane uporządkowane, sitemapa czy szybkość ładowania.
Audyt linków
Problemy z wewnętrznym linkowaniem, jak i z zewnętrznymi odnośnikami często przyczyniają się do kar od Google’a, dlatego warto tym kwestiom poświęcić szczególną uwagę. Takie narzędzia jak Majestic SEO pozwalają dokładnie przeanalizować wszelkie linki powiązane z Twoją stroną – pomoże Ci to ustalić, co z nimi zrobić. Jeśli podejrzewasz, że jakieś zewnętrzne odnośniki źle oddziałują na Twoją stronę, skontaktuj się z właścicielami witryn, z których one pochodzą. Jeśli takie działania nic nie dadzą, skorzystaj z Google Disavow Tool, aby pozbyć się ich wpływu. Pamiętaj jednak, że Google potrafi samodzielnie całkiem trafnie zidentyfikować nienaturalne linki przychodzące, aby następnie je ignorować.
Audyt contentu
W grę wchodzi tutaj nie tylko Twój content, jak artykuły blogowe, ale także i zawartość generowana przez użytkowników (np. komentarze). Sprawdź takie treści głównie pod kątem spamu, duplikacji wewnętrznej i zewnętrznej oraz tego, czy są przydatne dla odwiedzających. W analizie pomogą takie narzędzia jak Copyscape (duplikacja), SEMSTORM (jeden z modułów ocenia jakość contentu) oraz niektóre wtyczki do popularnych CMS-ów (Yoast SEO w przypadku WordPressa – rozszerzenie to podsuwa porady, jak zoptymalizować wpisy blogowe).
Filtr Google i sposoby zapobiegania
Oczywiście zamiast zastanawiać się nad tym, jak usunąć filtr Google, lepiej w ogóle zapobiec jego nałożeniu. W tym celu warto przede wszystkim śledzić aktualizacje algorytmów (skorzystaj ze źródeł w sekcji „Monitorowanie zmian w algorytmie”).
Rób także wszystko, aby „pozostać w łasce Google”. Unikaj praktyk omówionych w „Co powoduje nałożenie filtra na stronę?”. Oprócz tego stosuj się do najważniejszych wytycznych. Google od lat kładzie nacisk na jakość contentu oraz linków. Ostatnio podkreśla także znaczenie całościowego user experience (ku temu służyła m.in. aktualizacja Core Web Vitals).
Zamiast próbować „oszukać system”, warto inwestować w długofalowe, etyczne działania, które przyniosą korzyści zarówno Twojej stronie, jak i użytkownikom.
Filtr Google – jak długo trwa?
W przypadku kary ręcznej sprawa jest oczywiście prostsza. Dzięki temu, że otrzymujesz dokładną informację na temat powodu takiej decyzji, możesz szybko podjąć odpowiednie działania. Gdy już naprawisz problematyczne kwestie, złóż wniosek o ponowną indeksację. W rezultacie cała sytuacja może zostać rozwiązana nawet w kilka tygodni, choć często rozciąga się to na parę miesięcy. Filtr algorytmiczny Google jest bardziej problematyczny. Nie zawsze będzie jasne, co doprowadziło do jego nałożenia i kiedy roboty indeksujące uznają, że w końcu poprawiłeś to, co należało. Całej sytuacji nie da się także przyspieszyć poprzez wysłanie zgłoszenia. W efekcie zawsze trzeba czekać przynajmniej kilka miesięcy. Zwykle jest to pół roku, choć sprawa potrafi wydłużyć się nawet do 18 miesięcy. Niezależnie od rodzaju kary, warto jest skorzystać z pomocy specjalistów od SEO, aby dokładnie ustalić, co należy zrobić. Następnym krokiem są długoterminowe działania White Hat SEO, które pomogą w odzyskaniu zaufania u wyszukiwarki.
Filtr Google – podsumowanie
Popadnięcie w niełaski u Google’a to z pewnością niepożądany scenariusz. Warto wiedzieć, co do niego prowadzi oraz jakie działania należy podjąć, aby się go pozbyć. Usuwanie filtra może okazać się czasochłonne i przynieść wiele szkód dla strony, dlatego lepiej od początku wystrzegać się niezalecanych praktyk.