Grzegorz Minior

8 przyczyn spadku ruchu organicznego – jak i jakimi narzędziami je zidentyfikować?

Każdy prędzej, czy później spotka się ze spadkami. Czasami będzie to spadek pozycji dla jednej frazy, a czasami czerwona fala na wszystkich monitorowanych frazach. Czasami spadki są chwilowe i wszystko wraca do normy po kilku dniach, a czasami odzyskanie dawnej widoczności wymaga jakiegoś nakładu pracy.
W tym wpisie chciałbym zebrać najczęstsze powody takich sytuacji i narzędzia, które mogą pomóc nam w potwierdzeniu naszych przypuszczeń.

1. Aktualizacja algorytmu

Zjawisko, na które nie mamy wpływu i najchętniej zwalamy na nie wszystkie nasze niepowodzenia i utraty ruchu. Często zdarza się też, że “Specjaliści” wciskają klientom, że to właśnie prze zmiany algorytmów kampania nie przyniosła oczekiwanych efektów. Czasami faktycznie jest to prawdą i nie zawsze słysząc taką wymówkę masz do czynienia z oszustem.
Pytanie czy można to jakoś sprawdzić? I tak i nie, czyli jak zawsze to zależy 🙂 . Istnieje wiele narzędzi, które monitorują skalę zmian w wyszukiwarce. Przykładem może być monitor Senuto do którego warto zajrzeć, jeśli ma się dostęp.
Za darmo, nastroje w algorytmach możemy sprawdzić między innymi na:

Wszystkie wymienione narzędzie pokazują skalę zmian w słupkowych wykresach i w przypadku większych aktualizacji zauważymy, że taka miała miejsce. Problematyczne mogą być pomniejsze aktualizacje, które mogą dotyczyć małej grupy fraz, czy tematów. W takim wypadku warto zajrzeć na grupy na fb i większe blogi związane z pozycjonowaniem. Aktualizacje nie dotykają jednej strony, jeśli twoja spadła, to czyjaś musiała iść w górę, być może osoby które również zauważyły zawahania podzielą się taką informacją.

2. Sezonowość dużych fraz

Spadki ruchu pochodzącego z wyszukiwarki nie zawsze są związane ze spadkiem pozycji na konkretnych frazach. Czasami zainteresowanie danym tematem spada. Powodów może być kilka:

Jeśli chcemy ustalić sezonowość frazy, możemy skorzystać z Google Trends. Narzędzie udzieli nam informacji o tym jak popularność tematu zmienia się w czasie. Takie same dane możemy uzyskać dla określonego województwa i większych miast. Dodatkowo Google podsunie nam kilka podobnych fraz co może być przydatne przy planowaniu treści.

3. Nagła utrata linków

Linki to jeden z ważniejszych czynników wpływających na widoczność strony. Utrata linków, które dały nam określoną pozycję naturalnie skutkuje utratą tej pozycji. Zazwyczaj z takim problemem borykają się małe strony, które zajmują pozycje dla niekonkurencyjnych bądź lokalnych fraz.

Spadki spowodowane utratą linków mogą nastąpić po utracie dużej ilości linków (np. w przypadku odłączenia od zaplecza, czy usunięcia serii czasowych publikacji) lub utracie kluczowego, mocnego linku.
Narzędzi do analizy profilu linków jest wiele, informacje o utraconych linkach możesz uzyskać w np. Ahrefsie, albo Majesticu, o którym więcej znajdziesz tutaj

4. Przebudowa struktury strony (zmiany adresów url bez przekierowania 301)

Poprzedni punkt mówił o tym jak ważną rolę w pozycjonowaniu odgrywają linki. Każdy link prowadzi do konkretnej podstrony naszego serwisu, czyli konkretnego adresu url. Zmieniając adres url podstrony powinniśmy przekierować stary adres z wykorzystaniem 301. W przeciwnym przypadku stary url będzie kierował do strony z błędem 404 i pociągnie tam wszystkie pozyskane do niego linki, a widoczność treści, do której poprzednio kierował może spaść.

Najczęściej do nieplanowanej/nieświadomej zmiany adresu dochodzi podczas zmiany tytułu wpisu lub nazwy kategorii na stronach opartych o system cms. Czasami zmiana budowy adresów jest globalna np. podczas wdrażania zaleceń optymalizacyjnych. Nie wykonanie odpowiednich przekierowań może być tragiczne w skutkach.

Znalezienie stron z błędem 404 umożliwia większość crawlerów. Przykładem może być

5. Tag noindex

Tag noindex zakazuje robotom wyszukiwarek indexowania treści. W praktyce przekłada się to na brak nie tylko widoczności, ale jakiejkolwiek obecności w wynikach wyszukiwania.
Najczęściej taki problem pojawia się po wdrożeniu nowej wersji serwisu. Wersje testowe często są wykluczone z indexowania, żeby uniknąć duplikacji treści. Zdarza się, ze deweloper zapomni przed wdrożeniem strony usunąć zbędny już znacznik i statystyki pikują w dół.

5.5. Inne problemy z indexowaniem

Tag noindex zablokuje działanie robotów na naszej stronie całkowicie, ale oprócz niego istnieje masa różnych rzeczy, które mogą skutecznie utrudnić indexowanie treści. Zaczynając od złego linkowania wewnętrznego, a kończąc na serii przekierowań. Wszystkich problemów nie dam rady opisać, ale jeśli takowe występują zauważymy to wpisując zapytanie site:[nazwa strony] w Google. Po wpisaniu tej komendy zobaczymy wszystkie podstrony, które Google bierze pod uwagę. Przy okazji możemy sprawdzić, czy w obrębie naszej domeny nie działa jakieś złośliwe oprogramowanie i nie tworzy podstron reklamujących np. niebieskie tabletki.

Informacje o błędach związanych z indexowaniem naszych treści uzyskamy też w Google Search Console, w zakładce stan

6. Filtry i kary ręczne od Google

Jeśli gramy nie do końca czysto, Google może ukarać nas filtrem ręcznym lub algorytmicznym. W przypadku filtru nałożonego przez algorytm musimy wnioskować na podstawie doświadczenia i wyczucia, w przypadku filtrów ręcznych dostaniemy na ich temat informacje w Search Console w zakładce ręcznie działania.

7. Aktualizacja wtyczek lub systemu CMS

Co prawda nie jest to bezpośrednia przyczyna i nie ma nic złego w aktualizacji używanych technologii. Jest to nawet wskazane jeśli dbamy o bezpieczeństwo, natomiast może się to przełożyć na stworzenie poprzednio wymienionych problemów.
Szczególną ostrożność należy zachować podczas aktualizowania seo wtyczek.

8. Konkurencja nas wyprzedza!

Czasami nie ma przyczyny spadku pozycji. Czasami problem tkwi właśnie w tym, że nic się nie zmieniło. Obecnie większość firm prowadzi działania marketingowe w sieci i stara się poprawić swoją widoczność. Im bardziej komercyjna fraza, tym bardziej trafne okazuje się powiedzenie “Kto nie idzie do przodu, ten się cofa”

 

 

5.0
02