Moriarty

Junior Moderator
  • Zawartość

    1596
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    36

Ostatnia wygrana Moriarty w Rankingu w dniu 24 Lipiec

Moriarty posiada najczęściej lubianą zawartość!

Reputacja

1682 Pro Earner

5 obserwujących

O Moriarty

  • Tytuł
    The Bluro of CPA

Informacje

  • Płeć:
    Mężczyzna

Ostatnie wizyty

8554 wyświetleń profilu
  1. Myślę że 30-50% to wariant realistyczny Wysłane z mojego SM-G920F przy użyciu Tapatalka
  2. Pytanie Jak szukać profili authority?

    Clusteric, sprawdź temat na forum dot softu. Wysłane z mojego SM-G920F przy użyciu Tapatalka
  3. Pytanie Jak szukać profili authority?

    Harvest miejscówek i przesianie ich pod kątem danych parametrów. Wysłane z mojego SM-G920F przy użyciu Tapatalka
  4. Można ale i bez tego można zgarnąć bana
  5. Pozyskiwanie blogów PA + 28

    Widocznie blokuje ci API Moza lub ewentualnie proxy tak szybko siada, że nie da rady sprawdzić. Problemów może być wiele. Dziś lub jutro napiszę poradnik do jednego z softów pod właśnie wyszukiwanie expired webów.
  6. Dyskusja Skuteczność/bezpieczeństo przekierowania 301

    Najlepiej przekierowania 1:1, takie coś jak piszesz jest kompletnie bezpieczne i zgodne z wytycznymi.
  7. Pierwszeństwo mają strony w języku ojczystym.
  8. problem z ytmonster

    VPN, VPS, proxy, zmiana IP, poproszenie kolegi, przeglądarka z proxy, wynajęcie kogoś do rejestracji. Możliwości jest mnóstwo. Wysłane z mojego SM-G920F przy użyciu Tapatalka
  9. MINI-RECENZJA Tego sposobu nie znałem osobiście, rozmawiałem z kikoma osoboami co praucją w subach i też nie słyszeli. Screeny zarobków mówią same za siebie, sam się tego nie podejmę bo weekend to mój jedyny czas wolny w tygodniu, potencjał niszy jest spory ale do pewnego czasu, kiedy się nie przesyci sposób więc moim zdaniem za taką kwotę warto to kupić i szybko wykorzystać.
  10. Website auditor, jak sama nazwa wskazuje służy do tworzenia audytów seo pod kątem poprawek optymalizacyjnych. Sam program jest dosyć prosty w obsłudze i raczej nie będę wyjaśniał co gdzie, ponieważ raz że jest w języku polskim, a dwa, że większość rzeczy jest widoczna na pierwszy rzut oka. Pod lupę weźmiemy wszystkim znaną stronę jaką jest monavie-polska24.pl - wiadomo skąd znana. Na początku musimy chwilę poczekać, ponieważ program crawluje strony, które znajdzie zarówno poprzez przeklikanie strony, w sitemapie jak i w indeksie google (dzięki temu możemy znaleźć tzw. Orphan Pages - strony bez linków wewnętrznych). Na początek usuwam z podstron, które znalazł do analizy program zarówno dynamiczne urle, ponieważ są one przekierowane i tak na posty i podstrony, a ponadto nie ma do nich nigdzie odniesień oraz strony z tagami, ze względu na fakt, że nie da się ich zoptymalizować (tzn. da ale szkoda na to czasu). Przechodzimy do zakładki Strony. Ja uszeregowałem podstrony według ilości słów na podstronę w ten sposób znajdziemy od razu tzw. thin content, który powinno się rozbudować do minimum 300-400 słów, ponieważ podstrony takie są szczególnie narażone na Pandę. Kolejnym etapem będzie przejście do zakładki On-page. Sprawdzamy od razu czy jakieś podstrony nie mają może zbyt wielu nagłówków H1 lub nie mają ich zbyt mało (0): Od razu znajdujemy kilka problemów, oprócz tego niektóre tytuły są zbyt długie (Przyjmuje się do 55 znaków tytuł aczkolwiek dłuższy nie ma negatywnego wpływu na SEO - Dłuższy ale racjonalny). Dodatkowo możemy sprawdzić ile linkó wewnętrznych prowadzi do danej witryny, tak aby wzmocnić tę, na której nam zależy. W zakładce znaczników danych strukturalnych możemy sprawdzić czy podstrony mają znaczniki. Jest to istotne ze względu na brandowość czy lokalność, dodatkowo np dla podstrony o zakwaszaniu czy leczeniu kataru może się przydać dla Direct Answers itd. Przechodząc do zakładki "Wszystkie zasoby" możemy od razu zlokalizować największe pliki i zoptymalizować je dla uzyskania większej szybkości: Gdy przejdziemy do zakładki "Audyt witryny" ukaże nam się spis wszystkich rzeczy, które są zrobione dobrze i źle w programie: Jest to bardzo przydatne gdy chcemy na szybko rzucić okiem czy wszystko gra ze stroną. Jak widać, problemów technicznych raczej nie ma - kilka 404, jakieś pseudobłędy z SSL, kilka zerwanych obrazków i 2 puste tytuły. Oczywiście optymalizacja techniczna warta jest zawsze uwagi, ponieważ im lepiej zoptymalizowana i przejrzysta witryna, tym częściej i chętniej odwiedzają ją roboty i tym samym zwiększają nasz Crawl Budget. Aby sprawdzić optymalizacje podstron przechodzimy do sekcji TREŚCI, dodajemy podstronę i keywordy (sugeruję 1-3 na podstronę) i czekamy aż program przeanalizuje podstronę: Jak widać podstrona jest już całkiem nieźle zoptymalizowana ale zawsze można dopchnąć kilka keywordów czy w description, czy tytuł lub tekst. Dodatkowo trzeba pamiętać, że język polski to język fleksyjny więc program może mieć problem z poprawną oceną zagęszczenia słów kluczowych ponieważ szuka dopasowań 1:1. Warto tak zrobić z każdą podstroną, żeby dowiedzieć się czy coś nam nie uciekło, mimo wszystko oko ludzkie jest zawodne, podczas gdy programy sprawdzą wszystko dokładnie. Ciekawą funkcją jest analiza konkurencji pod względem zagęszczenia słów kluczowych. Aby to zobaczyć wejdź w TF-IDF: Oczywiście część sugestii idzie od razu do kosza ale inne np należy dodać frazę"zakwaszenia organizmu"*. Nada się to na pewno na content typu h@cki, gdzie możemy sprawdzić jak konkurencja zagęszcza tekst. *Prawdopodobnie chodzi o "objawy zakwaszenia organizmu" Przechodząc do sekcji Raportów możemy zobaczyć raz jeszcze szczegółowy raport z audytu jak i ogólne podsumowanie (bardziej dla klienta). Dodatkowo w sekcji siła domeny możemy zobaczyć jak mocno ocenia naszą stronę Website Auditor pod kątem zoptymalizowania, SM i linków. Reasumując, program Website Auditor to świetny analizer strony. Sam korzystam z niego i bardzo ułatwia mi audyty SEO (nie jest jednak moim jedynym narzędziem do oceny optymalizacji strony ale jest głównym). Daje nam duże możliwości. W przypadku pytań zapraszam do ich zadawania! TEMAT SEO POWERSUITE
  11. Pytanie Grupa - Usunięcie Administratora

    No trzeba poustawiać bo można się zabezpieczyć przed tym.
  12. Pytanie Usługi outsourcowane

    Sam RankerX i GSA to jedynie 1/10 zasobu SEO. Prawidłowy proces pozycjonowania strony powinien zaczynać się od jej poprawnej optymalizacji, a nie mam tutaj na myśli jedynie tytułu h1 i zagęszczenia słów kluczowych ale także techniczne aspekty SEO (Paginacja, struktura strony, duplikacja, głębia stron, crawl budget). Po poprawnej optymalizacji strony należy zastanowić się, które podstrony tak naprawdę chcemy rankować, ponieważ inaczej linkujemy sklepy, inaczej blogi a jeszcze inaczej Łan Pejcze. Jeżeli chodzi o źródła linków, to budowa blogów Rankerem to pracochłonny proces, ponieważ docelowo większość z tych blogów nie ma mocy i dlatego też należy wziąć pod uwagę fakt, że pozycjonowanie za ich pomocą może trwać, dopalając stronę GSA niestety możemy sobie mocno zaszkodzić, ponieważ wiadomo, że to kuszące ale domyślne harvesty z GSA i linkowanie nie zdaje już rezultatu, ponieważ domyślne footprinty są raczej zajechane. Najlepiej generować własne listy SEO ale to wymaga czasu i nauki, która jest niezbędna aby wiedzieć co i jak działa. Oczywiście GSA to tylko soft i nie potrafi ocenić miejscówek ale przy poprawnej liście, odpowiednich ustawieniach dalej idzie robić nim świetne linki. Jak wspomniał @Adrian1132 bardzo istotna jest dywersyfikacja źródeł linków: profile, tematy na forach, wpisy gościnne, katalogi, strony edu/gov profil powinien być jak najbardziej zróżnicowany, a nie tylko 9999 blogów ze 100 domen jakie oferuje Ranker. To może działać ale do czasu. Niezbędne jest także monitorowanie anchor ratio czyli rozłożenia anchorów, ponieważ o tym wielu początkujących userów RankerX zapomina. Możliwości dywersyfikacji anchorów jest mnóstwo (synonimy, tytuły, brandy, urle, słowa poboczne, LSI) więc na pewno można zbudować dobry profil bez obawy "o nie jak nie dam 40% EM to nie zrankuję". Bo jak damy 40% to na pewno nie zrankujemy Więc można się wspomagać outsorcowanymi usługami jeżeli zwracamy uwagę na źródło, jakość i anchory. Ja sam korzystam czasami z zewnętrznych serwisów chociażby po to aby poznać miejscówki, z których ktoś tworzy linki.
  13. Czas wycofana kary ręcznej przez google

    Trochę to trwa, u mnie trwało to ponad 2 tygodnie aż strona zaczęła być widoczna w wynikach organicznych wyszukiwarki Google.
  14. Historia rodziny

    To są "naboje" do strzelb. Co do klasy, najpewniej klasa średnia ale nie można wykluczyć, że to po prostu ubranie do zdjęcia, ponieważ bardzo często ubierano się w stroje ludowe na wakacjach w różnych krajach. Dziecko blond średnio pasuje pod Kaukaz.
  15. @come Masz trial do wypróbowania @jujo Ja pokazałem artykuły, które się generuje i nie są w spinie tylko w formie tekstu więc możesz je zastosować raz jak nie chcesz duplikatów xD. Jak robisz Spintax to wiadomo, że to się inaczej rozkłada w zależności od ilości synonimów ale poradnik był jednak dedykowany jakości aniżeli ilości.