Utrata pozycji w Googlach – jakie mogą być jej powody

Większość właścicieli e-biznesów robi wszystko, żeby ich strona na określone frazy kluczowe wyświetlała się w Googlach jak najwyżej. Czasem jednak zdarza się, że strona spada w wynikach wyszukiwania. Co może być przyczyną takiej sytuacji?

Duży ruch z wyszukiwarki to sytuacja idealna. Czasem kosztuje sporo pracy i pieniędzy, ale idące w górę słupki oglądalności strony, a także duże przychody i wysoki współczynnik konwersji to miód na serce zarówno pozycjonera, jak i właściciela witryny. Jednak czasem nad ich czołem zbierają się czarne chmury: wykres popularności witryny leci w dół, zyski spadają, strona traci na popularności. Istnieje wiele przyczyn takiej sytuacji, ale kilka z nich wysuwa się na czoło i najczęściej prowadzi do spadków. Oto one!

Aktualizacja algorytmu Google

W samym 2018 roku Google przeprowadziły aż 3 duże aktualizacje algorytmu, małych natomiast przeprowadzono dużo więcej. Zazwyczaj nie są one podawane do wiadomości publicznej, ale widać je na wykresach.

Każda aktualizacja dotyczy jakiegoś aspektu stron. Większość z nich nakierowana jest na polepszanie jakości treści oferowanych w internecie i zwiększanie adekwatności prezentowanych wyników do wpisywanych zapytań. Ale przy dużych aktualizacjach Google ogłaszają, czego konkretnie dotyczą i kto może na nich zyskać, a kto ucierpieć. Warto być na bieżąco z komunikatami pracowników Googli.

Zazwyczaj spadek pozycji widoczny jest niemal natychmiast po ogłoszeniu aktualizacji algorytmu. Jeśli zatem strona spadła w wynikach w kilka dni później, najprawdopodobniej przyczyna spadku jest jednak inna.

Migracja na nową domenę

Czasem zdarza się, że z jakiegoś powodu zmieniamy domenę. Jeśli nie zostaną ustawione przekierowania 301 ze starej domeny na nową, wówczas Google nie będą wiedziały o całej sytuacji i potraktują te dwie strony jako niepowiązane ze sobą. Treści na nich będą identyczne, a za powielanie treści Google karzą ze szczególną surowością, więc strona z pewnością zanotuje duży spadek.

Nienaturalne linki prowadzące do strony

Google cały czas dbają, aby wyeliminować wszystkich, którzy pozycjonują strony w sposób niedozwolony, stosując tzw. black hat SEO. W ramach takich niedozwolonych działań znajduje się nielegalne, masowe pozyskiwanie linków, które prowadzą do strony. Linki takie są niskiej jakości, pochodzą z systemów wymiany linków, presell pages (tzw. precli), zaspamowanych forów. Ok, ale mnie to nie dotyczy – pomyślisz. Nie możesz być tego pewien! Czasem praca Twojego pozycjonera może wymknąć się spod kontroli, czasem winna jest konkurencja, a czasem hakerzy.

Jeśli na Twoją witrynę spadła kara za nienaturalny profil linków, zostaniesz o tym powiadomiony w Google Search Console (o ile oczywiście narzędzie to zostało podpięte do strony).

Uboga, słaba merytorycznie treść na stronie WWW

To kolejna sytuacja, o której zostaniemy powiadomieni w narzędziu Googli dla webmasterów, czyli Google Search Console. Jeśli treść na stronie zostanie oceniona jako niskiej jakości, czy to przez roboty, czy też przez pracowników, poszybuje w dół. Stać się tak może, jeśli strona posiada dużą liczbę podstron, na których występuje słaba, lakoniczna (mniej niż 500 znaków), czasem zduplikowana treść.

Powielona treść (tzw. duplicate content)

Google bardzo dbają, aby na stronach treść była oryginalna. I nie ma tu wyjątków i usprawiedliwień. Nawet jeśli prowadzimy sklep, w którym umieszczamy skopiowane ze strony producenta opisy produktów, również są one traktowane jako zduplikowana treść (co gorsza, kopiować ją mogą też inne sklepy). Możemy za coś takiego zostać ukarani spadkiem pozycji.

Ale zduplikowaną treść Google mogą zauważyć nawet w mniej oczywistych sytuacjach, chociażby wtedy, kiedy na naszej stronie jest wyszukiwarka produktów. Każdy wynik wyszukiwania jest traktowany przez Google jako duplicate content. Ale dobry pozycjoner potrafi sobie poradzić z taką sytuacją!

Przesycenie treści słowami kluczowymi

Niektórzy tak bardzo chcą szybko pozycjonować swoją stronę, że przesadzają z ilością słów kluczowych. Google cenią treści tworzone z myślą o użytkownikach, nie robotach wyszukiwarkowych, dlatego jeśli zaczynają one brzmieć nienaturalnie, nakładają karę.

Ukrywanie tekstu

Zdarza się, że niektórzy webmasterzy umieszczają tekst ukryty przed wzrokiem internautów, daleko poza ekranem, za pomocą CSS. Ma on dyskretnie pomagać w pozycjonowaniu strony. Google Bot jest w stanie dość szybko rozpoznać taką sytuację i nałożyć karę w postaci spadku strony w indeksie.

Jak zapobiec utracie pozycji strony w Googlach?

Wszystko zależy od przyczyny spadku. Jeśli strona spadła w wynikach wyszukiwania po aktualizacji algorytmu Googli, warto dokładnie zapoznać się z komunikatem Googli mówiącym, co zostało konkretnie zmienione i poszukać tego na własnej stronie. Np. jeśli Google udoskonaliły algorytm pod względem nienaturalnych linków przychodzących, warto sprawdzić jednym z wielu dostępnych narzędzi, jakie linki prowadzą do naszej strony.

Warto też zaglądać do Google Search Console, ponieważ jeśli została nałożona na naszą stronę ręczna kara, to właśnie tam znajdziemy powiadomienie o tym i rady, co zrobić, aby kara została zdjęta.

 

SEO – Rybnik, Katowice, cała Polska

Jeśli macie problem ze spadkiem widoczności Waszej strony, dajcie znać, pomogę Wam przeanalizować problem i znaleźć wyjście z tej sytuacji! :)

 

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Zobacz także

Płatne linki – na co zwrócić uwagę?

Większość właścicieli e-biznesów robi wszystko, żeby ich strona na określone frazy kluczowe wyświetlała się w Googlach jak najwyżej. Czasem jednak zdarza się, że strona spada w wynikach wyszukiwania. Co może być przyczyną takiej sytuacji? Duży ruch z wyszukiwarki to sytuacja idealna. Czasem kosztuje sporo pracy i pieniędzy, ale idące w górę słupki oglądalności strony, a także duże przychody i wysoki współczynnik konwersji to miód na serce zarówno pozycjonera, jak …

Czy warto reklamować w Google nazwę firmy?

Większość właścicieli e-biznesów robi wszystko, żeby ich strona na określone frazy kluczowe wyświetlała się w Googlach jak najwyżej. Czasem jednak zdarza się, że strona spada w wynikach wyszukiwania. Co może być przyczyną takiej sytuacji? Duży ruch z wyszukiwarki to sytuacja idealna. Czasem kosztuje sporo pracy i pieniędzy, ale idące w górę słupki oglądalności strony, a także duże przychody i wysoki współczynnik konwersji to miód na serce zarówno pozycjonera, jak …

Jak Google oceniają wiarygodność strony WWW?

Większość właścicieli e-biznesów robi wszystko, żeby ich strona na określone frazy kluczowe wyświetlała się w Googlach jak najwyżej. Czasem jednak zdarza się, że strona spada w wynikach wyszukiwania. Co może być przyczyną takiej sytuacji? Duży ruch z wyszukiwarki to sytuacja idealna. Czasem kosztuje sporo pracy i pieniędzy, ale idące w górę słupki oglądalności strony, a także duże przychody i wysoki współczynnik konwersji to miód na serce zarówno pozycjonera, jak …

UX w służbie SEO – jak dobre praktyki UX wpływają na pozycjonowanie

Większość właścicieli e-biznesów robi wszystko, żeby ich strona na określone frazy kluczowe wyświetlała się w Googlach jak najwyżej. Czasem jednak zdarza się, że strona spada w wynikach wyszukiwania. Co może być przyczyną takiej sytuacji? Duży ruch z wyszukiwarki to sytuacja idealna. Czasem kosztuje sporo pracy i pieniędzy, ale idące w górę słupki oglądalności strony, a także duże przychody i wysoki współczynnik konwersji to miód na serce zarówno pozycjonera, jak …