Znajdź zawartość
Wyświetlanie wyników dla tagów 'seo ppa' .
-
Witam, widziałem jakiś czas temu ten poradnik, kiedy przygotował go MOZ. Był naprawdę dobrze napisany, zresztą co się dziwić, to nie pierwsi lepsi pozycjonerzy. Jedynym mankamentem było to, że był dostępny tylko w języku angielskim. Miałem się nawet podjąć próby tłumaczenia, ale okazało się, że ktoś to już zrobił za mnie (a dokładniej, sprawnymarketing.pl) Są tutaj zawarte wszystkie najważniejsze rzeczy, są one przede wszystkim aktualne i poradnik jest przeznaczony dla początkujących, ale polecam przeczytanie go każdemu! [PDF] Poradnik dla początkujących od MOZ'a [tłum. sprawnymarketing.pl]
-
Poradnik Twoja strona spadła w wynikach? To może być filtr algorytmiczny
Termik opublikował(a) temat w Case Study i Poradniki SEO
Witam, widziałem temat, gdzie trwała dyskusja, co stało się ze stronami użytkowników. Otóż, na 99% (jeśli w GWT nic się nie dzieje) to filtr algorytmiczny. Gdy zaobserwowaliśmy gwałtowny spadek pozycji pod jakąkolwiek frazą i dłuższy niż kilka dni brak powrotu do stanu poprzedniego świadczyć to może o nałożeniu na naszą stronę internetową właśnie takiego filtra. Ponadto, aby upewnić się, możemy posłużyć się tą stroną: http://algoroo.com/ Sprawdza ona zawirowania w pozycjach tysięcy keywordów. Czym ich więcej, tym słupek jest wyższy. Jeśli jest czerwony, bardzo prawdopodobne, że google zmieniło coś w algorytmie, co wpłynęło na wiele stron. Jak się za problem zabrać? Rozpoczynamy zabawę analogicznie jak w przypadku filtra ręcznego, czyli wysyłamy do Google opisaną w poprzednim poście prośbę o ponowne rozpatrzenie. Dzięki temu upewniamy się, czy czasem filtr nie został nałożony ręcznie. Jeśli otrzymamy informację, że filtr ręczny nie został nałożony, to nie ma potrzeby wysyłania kolejnych pytań, gdyż Google nie informuje o tym, że nałożony został filtr algorytmiczny. Jest to o tyle istotna różnica, że w momencie odpowiedniego poprawienia strony/linkowania przy filtrze ręcznym dostaniemy informację, że już jest ok. W przypadku filtra algorytmicznego Google nam nie podpowie i jedynym wyznacznikiem poprawności naszych działań będzie „tryumfalny” marsz naszej strony ku wysokim pozycjom. Dlatego też przez cały czas prowadzenia „działań naprawczych” musimy monitorować pozycje naszej strony pod interesującymi nas frazami. Linkowanie jest najczęstszą przyczyną W lwiej części przypadków nałożenia filtra algorytmicznego winne jest linkowanie. Zanim jednak zabierzemy się za linki warto sprawdzić, czy strona spełnia wytyczne dla webmasterów. Nie ma sensu grzebać w tysiącach linków, jeśli strona ma skopiowaną treść, zainstalowane „złośliwe oprogramowanie” itp. Gdy upewnimy się, że nasza strona spełnia wytyczne, zaczynamy tango z linkami. Na początku sprawdzamy pod jakimi frazami nasza domena może mieć ewentualnie nałożone filtry. Wstawiamy ją do narzędzia analizującego (np. Ahrefs) i widzimy na jakie anchory była/jest linkowana oraz na jaki adres (filtr nie musi być nałożony na stronę główną, mogły „dostać” podstrony). Sprawdzamy je po kolei wstawiając w wyszukiwarce Google kombinację adres url+fraza. Jeśli w którymś przypadku nie wyskoczy nam wpisywany adres na pierwszym miejscu, to znak, że złapaliśmy filtr pod tym adresem - Czy jeśli w danych konfiguracjach moja strona wyskakuje na pierwszej pozycji to znaczy że nie ma filtra? - Nawet jeśli Twoja strona pojawi się na pierwszej pozycji nie daje Ci to pewności że strona filtra algorytmicznego nie ma. Jest to jeden ze sposobów sprawdzania filtra, natmiast nigdy nie będziesz miał pewności że że domena jest odfiltrowana jako że google nie udostępnia takich informacji Znając już zafiltrowane frazy staramy się usunąć jak najwięcej śmieciowych linków z tymi anchorami. Te śmieciowe linki, których nie udało nam się usunąć (zazwyczaj większość) wrzucamy do Disavow Tool i zrzekamy się ich. Czasami samo usunięcie kiepskiego linkowania wystarcza. Czasami… Zazwyczaj trzeba podjąć kolejny krok, czyli „podrasować” linkowanie zafiltrowanych anchorów. Służą do tego oczywiście mocne linki z wysokim TrustRankiem. Podczas tych działań pozycje strony należy nieustannie monitorować, gdyż często filtr puści na kilka dni, a potem znowu złapie. Mocne linkowanie należy prowadzić dotąd, aż strona na dobre się nie ustabilizuje. Czas, po którym dobre linkowanie przeważy jest różny. Zależy, tak jak przy pozycjonowaniu od wielu czynników: jakość linków, ilość linków, zróżnicowanie skryptów, Ranki domeny, treść domeny itd… Ze zdejmowaniem filtrów jest jak z pozycjonowaniem. Po pewnym czasie zdobyte doświadczenie sprawia, że zaczynamy „wyczuwać” powody ich nałożenia. Osławione Pandę i Pingwina można wychwycić gołym okiem. Najgorzej jest kiedy filtry algorytmiczne się skumulują, bo często zdejmowanie jednego sprawia, że niechcący wzmacniamy inny. Zawsze jednak należy pamiętać o złotej zasadzie. Bez dokładnej analizy stracimy jedynie czas i energię. Wielu „specjalistów” wali linkami TR bez ładu i składu wychodząc z założenia, że z takiej masy coś musi trafić na odpowiednie anchory i przeważyć. Według mnie to zwykłe marnowanie czasu i potencjału, ale decyzja należy już do Was. część artykułu pochodzi z: stylem.pl A jak z problemem walczyć? Zapraszam do poradnika- 327 odpowiedzi
-
- 9
-
- filtr algorytmiczny
- seo ppa
-
(i 1 więcej)
Oznaczone tagami: