Znajdź zawartość
Wyświetlanie wyników dla tagów 'indeksowanie seo' .
-
Poradnik Jak radzić sobie ze znikającymi wynikami naszych stron w Google?
Termik opublikował(a) temat w Case Study i Poradniki SEO
Hejo, dzisiaj przetłumaczyłem dla Was bardzo ciekawy artykuł z MOZa Wyobraźcie sobie sytuację... Budzicie się, uderzacie pod przysznic, zakładacie koszulkę Make-Cash.pl (i resztę ubrań, jak mniemam), zaparzacie sobie kawkę/herbatkę, włączacie lapka/kompa, sprawdzacie oczywiście jako pierwsze zarobki, a potem rankingi wyników, jeden po drugim.... ...Mhm... ...Mhm... ...Ooo, ładnie... ...Meh... ...Tak! Super skok!... ...Mhm... ...Mh...- Zaraz, chwila... Co? Dużo czerwonych, na całej stronie? Rankingi poza zakresem wyszukiwań?! To będzie dłuuuuugi dzień... Coś takiego przydarzyło się ostatnio mojemu klientowi. Jego strona główna w niewyjaśnionych okolicznościach została wywalona z indeksu Google w ciągu nocy, ciągnąc za tym wiele innych pozycji w dół, jak możecie zobaczyć na poniższym gifie: To był również pierwszy raz kiedy ja osobiście spotkałem się z czymś takim. Ten tekst przechodzi przez czynności jakie podjąłem by rozwiązać ten problem. Działałem metodycznie, ale jednocześnie szybko i dzięki temu zdołałem przywrócić stronę główną do indeksu (a wraz z tym - poprzednie rankingi) w mniej niż 12h. Rozumiem, że to jest jeden z tych artykułów, którego przeczytanie może nigdy Ci się nie przydać, dopóki nie dopadnie Ciebie taki problem. Szczerze mówiąc, sam byłem w dokładnie takiej samej sytuacji - wiedziałem mniej więcej co robić, jednak mimo to, moja reakcja wyglądała tak: "OMG OMG OMG, ktocogdziekiedydlaczego?!". Więc... jesteście gotowi? To lecimy! Sprawdź czy to tylko jedna strona czy również reszta została wykluczona z indeksu Zwykle używam Link Assistant Rank Tracker, z pakietu SEO Powersuite (wspomagany Trusted Proxies) dla sprawdzania rankingów, i Moz PRO's rank checking jako backup i drugi wynik do porównania. Rank Tracker posiada kolumnę 'URL Found', która pokazała mi wszystko od razu: reszta stron była ciągle w wynikach, jedynie strona główna nie. Dodatkowo, kiedy reszta stronek spadła o kilka stron w wynikach (ale wciąż były w top 10 stronach/100 wynikach), inna strona poszła w górę - w przypadku mojego klienta były to strony typu Usługi, Recenzje i Formularz Kontaktowy. To pokazało mi, że tylko strona główna została dotknięta tym dziwnym zjawiskiem. Była jeszcze inna droga, by się w tym upewnić... Użyj operatora 'site:' by sprawdzić czy dalej strona jest w indeksie Moim kolejnym krokiem było użycie operatora 'site:' w wyszukiwarce na domenie, by sprawdzić czy strona główna dalej była w indeksie. Nie była, ale wszystkie inne były. Uff, chociaż tyle! Mimo tego, że miałem wyniki w Rank Trackerze, to dalej ważnym było sprawdzić, po prostu by się upewnić, że tej strony głównej w wynikach nie ma. Teraz już byłem w 100% pewny, ze to tylko strona główna zniknęła z Google. Nadszedł czas by dowiedzieć się dlaczego... Krok 1) Przypadkowe niezindeksowanie poprzez meta noindex tag W mojej dotychczasowej karierze, zazwyczaj to jest odpowiedzialne za cyrki takie jak tutaj... Dodanie opcji by nieindeksowano strony jest często tickowanym polem w większości CMS-ach w naszych czasach. Raz z czymś takim się spotkałem, więc powiedziałem klientowi tylko, żeby odznaczył to pole w Wordpressie. By to sprawdzić, znajdź taki kawałek żądanej strony (lub coś podobnego): <meta name="robots" content="noindex"> Więc jeśli coś takiego znalazłeś, złapałeś sprawcę. To rzadko popełniany błąd, więc raczej musisz iść dalej... Krok 2) Przypadkowe włączenie nieindeksowania w pliku robots.txt Pewna część osób mówi, że plik robot.txt może powodować nieindeksowanie - mówi on wyszukiwarkom by nie pobierały po prostu tej strony na swoje serwery, więc jeśli to prawda, to strona nigdy nie powinna się pojawić w wynikach. Mało prawdopodobne, by było to problemem, ale lepiej jednak sprawdzić. W pliku robots.txt, jeśli nie zajmujemy się naprawdę profesjonalnym pozycjonowaniem nie należy nic kombinować. Tutaj więcej info o tym możliwym przypadku. Krok 3) Sprawdzenie strony pod względem kar (UWAGA - W PRZYPADKU PPA I CPA NAJCZĘSTSZYM POWODEM JEST KARA OD ROBOTÓW - WIĘC ZASTANÓWCIE SIĘ DOBRZE CZY TO NA PEWNO NIE TO) Jako, że to był mój klient, wiedziałem trochę o historii tej strony i pewny, że nie stała za tym żadna kara. Ale znowu, by dołożyć staranności... a wiecie co mówią, jeśli tylko przewidujesz! Wszedłem na GWT i spojrzałem na dodaną ostatnio kartę Manual Actions. Tak jak się spowiedziałem: "No manual webspam actions found". Dobrze, dobrze. Jednak, nie wykluczajmy kar, o których Google nam nie mówi (i ojej, to spowodowało pewne zamieszanie). Tak długo, jak Panda była zainteresowana, tak nie było żadnego dowodu na przypadkowy lub celowy duplicate content, tak na stronie jak i gdziekolwiek w sieci. A dla tych podłych Pingwinów, informacja, że jestem pierwszym pozycjonerem pracującym na tej stronce, który nie buduje keyword anchorów dla swoich klientów, przez co strona nigdy nie była w sieci pod żadnym anchorowym keywordem, można odrzucić również i Pingwina. Podążając tymi krokami, byłem pewny, że żadna kara nie była tutaj za coś odpowiedzialna. Krok 4) Funkcja Remove URLs w GWT Kolejne sprawdzenie w momencie kiedy jesteś w koncie GWT: wejdź w Google Index > Remove URLs i sprawdź czy strona nie została dodana do prośby o usunięcie (nieważne czy przypadkowo czy celowo). Nigdy nie wiesz... zawsze lepiej sprawdzić. Niestety... "No URL removal requests" w tym przypadku. W tym momencie, zacząłem się zastanawiać "co takiego mogło to spowodować?!". Krok 5) Przypadkowy kod 404 W dzień w którym to się przydarzyło, spotkałem się z dobrymi przyjaciółmi pozycjonerami, Andrew Isidoro (@Andrew_Isidoro) i Ceri Harris z Willows Finance na drinka i coś do zjedzenia w pobliskim pubie. Opowiedziałem im całą historię, co zrobiłem do tej pory, i Andrew zaproponował coś na co nigdy bym nie wpadł: oczywiście baaardzo nieprawdopodobne, ale, co jeśli strona główna po wejściu ukazywała teraz kod 404 (Not Found), zamiast kodu 200 (OK)? Nawet jeśli strona stoi i działa normalnie (dla odwiedzającego), to kod 404 może mówić Google delikatnie, żeby więcej tu nie wracała bo tu nic nie ma. Znowu, było to warte sprawdzenia, więc przepuściłem to przez SEO Book's HTTP header checker tool. Wynik: 200 code (OK). Ok, więc co teraz? Krok 6) Testowanie strony w GWT Nadszedł czas by zapytać wielkiego bossa "Googly McSearchengineface" wprost: co TY widzisz w tej stronie, i tylko tej, takiego niezwykłego? By to zrobić, wejdź na swoje konto GWT, kliknij w zakładkę Crawl > Fetch as Google (Pobierz jako Google). Powinno wyglądać to tak: Strony, których nie ma w wynikach wrzuć do tego narzędzia (lub pozostaw puste pole gdy jest to strona główna) i zobacz jak to widzi robot wyszukiwarki. Oczywiście, jeśli pojawi się status "Failed", czy jest powód dlaczego to się pojawiło? To może pomóc Ci w znalezieniu rzeczy odpowiedzialnej za zniknięcie strony z wyników. Krok 7) Zapytanie do Google o ponowne zindeksowanie strony Jeśli zrobiłeś już powyższe w GWT, masz opcję by ponownie zmusić Google do zindeksowania strony: Zdecydowałem, że zrobię tylko to: poproszę Google o ponowne dodanie strony do indeksu. W tym punkcie byłem pewny, że zrobiłem praktycznie wszystko co mogłem w swojej mocy by dowieść co spowodowało ten problem. * Uzdrowienie! * Później, tego samego dnia wieczorem, zrobiłem kolejne sprawdzenie. Ku mojemu zdziwieniu, strona nie tylko wróciła do indeksu, ale również wyniki wróciły na swoje miejsce. Phew! Napisałem "zdziwieniu", nie o mojej umiejętności rozwiązania tego problemu, ale jak szybko to zostało przywrócone - przypuszczałem, że może potrwać to może kilka dni, ale nie tylko kilka godzin. Prawdziwy (prawdopodobny) powód... Więc co takiego spowodowało deindeksację? Cóż, kolejna sugestia, którą wysunął Andrew, kiedy byliśmy w pubie, była tą, którą mogłem w głupi sposób pominąć: przerwa w działaniu strony! To mógł być przypadek i zarazem pech, że Google zachciało się ponownie pobrać stronę na swoje serwery w momencie, kiedy strona przez chwilę leżała. Nie dodałem strony do mojego konta Pingdom przed tym, jak to się stało, ale teraz już nauczyłem się by to zrobić. Co ciekawe, strona padła kolejny raz jakiś dzień później, co skłoniło mnie do przemyśleń, czy aby na pewno downtime był za to wszystko odpowiedzialny... Nawet jeśli, poradziłem klientowi by przemyślał zmianę hostingu na bardziej stabilny, by zredukować szansę na podobne zdarzenia w przyszłości.- 2 odpowiedzi
-
- 1
-
- poradnik seo
- seo elita
-
(i 3 więcej)
Oznaczone tagami: