Skocz do zawartości

[Poradnik] Jak scrapować listy do K2


Rekomendowane odpowiedzi

Zarejestruj się za darmo i naucz się zarabiać online!

  • Dostęp do darmowych poradników pokazujących krok po kroku jak zarabiać w Internecie
  • Sposoby zarabiania niepublikowane nigdzie indziej
  • Aktywna społeczność, która pomoże Ci rozwiązać problemy i doradzi
  • Profesjonalne treści na temat SEO, social media, afiliacji, kryptowalut, sztucznej inteligencji i wiele więcej!
Nie mogę

 

Ale ja mogę :

 

 

 

Publiczne proxy zazwyczaj uzyskujemy na 3 sposoby

 

1. Skanowanie portów. Uzyskane w taki sposób proxy długo żyją, i szybsze, ale do takiego skanowania trzeba mieć mocny dedyk i autorski soft. Dedyk ma być bulletproof  kategoria A, bo za skanowanie portów abuse lecą od razu do dostawcy IP - sposób dla zaawansowanych użytkowników.

2. Skrapwoanie proxy z otwartych i ręcznie wyselekcjonowanych źródeł. Robimy to na 2 sposoby lub wpisujemy w Google frazę "free proxy, i inne" i zapisujemy URL stron gdzie publikowane świeże proxy. Lub jako foto dajesz działające proxy wtedy również dostajesz url stron gdzie to proxy zostało upublicznione. Przykład żródła proxy - www.nntime.com(+podstrony), wtedy uzyskujesz adresy stron gdzie te proxy publikowane zapuszczasz soft do scrapowania proxy na te url..

3. Kupić nie drogi dostęp do API proxy już gotowych do pracy z google (proxymarket, proxygen) -  sposób z którego korzysta większość. Kupujesz API, w panelu wpisujesz IP na ktorym stoi soft do pobrania proxy i harwestowania, wpisujesz w harwester co ile ma odświeżać listę ( w zależności od kupionego pakietu).

 

Aby proxy sprawdzić przed harwestwoaniem trzeba mieć soft do testowania proxy pod Google ( jeśli hawestujesz w Google) większość harwesterów ma taką funkcję. Jeśli kupujesz API można API dać od razu w soft do harwestwoania te proxy ju sprawdzone i non-stop testowane, rotowane. Można proxy testować scrapeboxem, scrapeboardem, innymi softami. Proxy publiczne mają to do siebie, że nie żyją długo i wiele z działających maja BAN w Google lub innych dużych serwisach.

 

Poradnik w mojej ocenie zawiera wiele podstawowych błędów  włącznie z "Lista footprintów"  przy pomocy takich footprintów to co wyda harwester będzie zbyt ogólne. Bez sensu ganiać soft.

Stwierdzenie Publiczne proxy (można trocha bez) jest prosto komiczne, przy zapytaniu inurl: Google banuje IP harwestera po drugim zapytaniu i wydaje captcha. Gscraper captcha nie przepisuje.

Edytowane przez intermac
  • Super 1
Odnośnik do komentarza
błędów

 

Ok napisz swój darmowy na ten temat. Tak to już jest jak coś za darmo to złe prawda? To był mój ostatni poradnik na tym forum. Co do google. Przecież GScraper nie harwestuje tylko w google ;o Po 5 minutach 50k linków i po przefiltrowaniu zostaje jakieś 5-10k. Mało? Good luck. PS. Podaj swoją listę footprintów, takich 'nieogólnych' i 'niebezsensownych'.

 

Pozdrawiam 

                                           1839232079_seo.png.55086169b3289bd58df5c1a319c9369d.png                                                                                     

Odnośnik do komentarza

@Rajza Jeśli Twoja płatne poradniki na takim samym poziomie to współczuje kupującym :D Czemu takich poradników nie piszesz, nie sprzedajesz na PiO? Odpowiem bo tam zostałeś by wyśmiany

Podaj swoją listę footprintów, takich 'nieogólnych' i 'niebezsensownych'

 

Zacytuje klasyka "Nie mogę" bo te footprinty zasilą jakiś płatny poradnik z SEO :D

jakieś 5-10k. Mało

 

Nie mało jeśli to AA lub precyzyjny harwest.  K2submitter zrobi z tego co ty uczysz 5-10k - 20 linków. Moja odpowiedz - bardzo mało

Jeśli popełniłem jakieś błędy merytoryczne, ortograficzne lub gramatyczne to wybaczcie

 

Wybaczam.

Edytowane przez intermac
  • Super 2
Odnośnik do komentarza

intermac

 

Jakoś nikt z płatnego nie był niezadowolony. Do czego zmierzasz co? Żal dupe ściska czy co? Bo nie rozumiem toku rozumowania. Zrób poradnik i good.

 

I nie rozumiem po co na pio? Przecież mogę wybrać odbiorców prawda? Cieszę się że jesteś pro evo pozycjoner i zycze wysokich zarobków.

Edytowane przez rajza

                                           1839232079_seo.png.55086169b3289bd58df5c1a319c9369d.png                                                                                     

Odnośnik do komentarza

Jeszcze jedno co do gscrapera to harvestuje ty

Ok napisz swój darmowy na ten temat. Tak to już jest jak coś za darmo to złe prawda? To był mój ostatni poradnik na tym forum. Co do google. Przecież GScraper nie harwestuje tylko w google ;o Po 5 minutach 50k linków i po przefiltrowaniu zostaje jakieś 5-10k. Mało? Good luck. PS. Podaj swoją listę footprintów, takich 'nieogólnych' i 'niebezsensownych'.

 

Pozdrawiam

Gscraper harvestuje tylko w google.
Odnośnik do komentarza

@intermac, nie wiem jak na PiO, ale tutaj preferujemy wspólną pomoc i wymianę zdań na poziomie bez kąśliwych uwag. Mamy się od siebie wzajemnie uczyć, a nie wytykać sobie błędy. Rajza poświęcił czas na napisanie tego poradnika i jestem mu za to osobiście wdzięczny, ale jeśli widzisz jakieś błędy - napisz do niego na PM (lub w temacie, jak wolisz) i wskaż gdzie można coś poprawić lub uzupełnić, byśmy wszyscy na tym skorzystali. Zauważyłem, że w swoich postach, w moim odczuciu, wywyższasz się nie tłumacząc dokładnie o co chodzi. Każdy sobie rzepkę skrobie, ale z doświadczenia podpowiem, że z takim nastawieniem nie zdobędziesz tu zbyt wielu przyjaciół.

Chcesz zacząć zarabiać w Internecie, ale nie wiesz jak? Szukasz inspiracji i nowych metod? Sprawdź:
>>> 13 sposobów jak zarabiać przez internet! - Zarabianie w Internecie <<<

Odnośnik do komentarza

Jeszcze jedno co do gscrapera to harvestuje ty

Ok napisz swój darmowy na ten temat. Tak to już jest jak coś za darmo to złe prawda? To był mój ostatni poradnik na tym forum. Co do google. Przecież GScraper nie harwestuje tylko w google ;o Po 5 minutach 50k linków i po przefiltrowaniu zostaje jakieś 5-10k. Mało? Good luck. PS. Podaj swoją listę footprintów, takich 'nieogólnych' i 'niebezsensownych'.

 

Pozdrawiam

Gscraper harvestuje tylko w google.
Odnośnik do komentarza
@intermac, nie wiem jak na PiO, ale tutaj preferujemy wspólną pomoc i wymianę zdań na poziomie bez kąśliwych uwag.

 

Jeśli człowiek mianuje się ekspertem od SEO i sprzedaje jakieś poradniki a nie wie, że Gscraper nie harwestuje nic po za Google i beż proxy nie scharwestue nawet 100 k2. Teraz odwraca kota ogonem i piszę. że pomylił soft a właśnie pod ten soft jest zrobiony ten "poradnik" to w jaki sposób wytłumaczyć, że " król jest goły" ?

Przecież piesze że trocha można harwestować bez proxy :D i podawał mi nawet z palca wyssane liczby. To co on ma trwałą amnezje i nie wie pod jaki soft pisze poradnik?

Wujek Ziemny, nie szukam w internecie przyjaciół ale jak ktoś wciska takie kity a na pytanie o proxy odpowiada ' nie mogę " :D to musiałem zareagować.

Oczywiście jeśli to przeszkadza jakimś Waszym układom biznesowym i uważasz, że nie znam się na SEO, możesz mnie zbanować :D Pozdrawiam

Edytowane przez intermac
  • Super 3
Odnośnik do komentarza

intermac

 

Żadnym ekspertem SEO się nie mianuję. Poradnik, który sprzedaję to sprawdzone strategie, które działają. To nie znaczy, że uważam się za guru SEO. Pomyliłem gscraper z scrapeboxem w jednej kwestii i co? Można harwestować bez proxy. Nie są to liczby wyssane z palca. Co do proxy, mam 'dostawcę' dlatego powiedziałem 'nie mogę', a 90% userów tutaj wie skąd ogólnie brać proxy

 

Cieszę się, że znasz się na SEO... ale ale. Zarejestrowałeś się na make-cash - Forum o zarabianiu przez internet, a to oznacza, że mimo tego, iż ogarniasz SEO to na tym nie potrafisz zarobić. Jedziesz po wszystkich tutaj, którzy zarabiają? Jesteś przecież pro SEO więc gdzie tkwi problem? Napisz swój poradnik i tyle. Jak Ci coś nie pasuje w moich poradnikach to po prostu ich nie czytaj ;o Koniec offtopu

                                           1839232079_seo.png.55086169b3289bd58df5c1a319c9369d.png                                                                                     

Odnośnik do komentarza
iż ogarniasz SEO to na tym nie potrafisz zarobić

skąd taki pomyśl Mistrzu, możesz rozwinąć swoja myśl? Zarejestrowałem się zupełnie z innych powodów.

Pomyliłem gscraper z scrapeboxem w jednej kwestii i co?

To, że to co piszesz w swoim poradniku nie ma sensu.

Można harwestować bez proxy.

Można Mistrzu, ale harwester musi wykorzystywać algorytm przeglądarki i mieć możliwość przepisywać captcha. To ma coś wspólnego z twoim poradnikiem?

Co do proxy, mam 'dostawcę

Ten dostawca ogłaszał się i nie jeden raz, pozdrów "Włamywacza", lub Adama. bardziej obstawiam pierwszego.

Jeśli kupujesz proxy od dostawców to znaczy nie węsz, że można mieć ich bezpłatnie, w dużych ilościach ( wystarczy dla jednej osoby na ciągły harwest), zawsze działające wydając jednorazowo ok 30 USD .

Koniec offtopu

Racją, dyskusja o twoim poradniku to offtop :D Już nie będę recenzować twojego poradnika, bo każda inna opinia oprócz zachwytu z tego co widzę jest nie mile widziana.

Pozdrawiam

Edytowane przez intermac
Odnośnik do komentarza

Pominąwszy spinę o proxy i o to czy poradnik rajzy jest szajsem czy nie (wg mnie nie jest). to mam pytanie do @intermac. Czy mógłbyś mi wyjaśnić co rozumiesz pod pojęciem "zbyt ogólne" wyniki? Czy chodzi Ci o to, że strony nie będą dopasowane tematycznie? Oczywiście, może to być problemem, z drugiej strony trzeba mieć sporo footprintów pod K2 i naprawdę dobre proxy aby znaleźć kilka tysięcy konkretnych miejscówek, niekiedy oczywiście przydają się i ogólne więc nie uważałbym tego za błąd, ponieważ ogólne harvestowanie ma swoje zastosowanie tak jak i niekiedy bardziej przydatne jest skonkretyzowanie keywordów.

Nie wiesz jak dokonać optymalizacji strony? Masz problem z doborem słów kluczowych czy z analizą linków? Skorzystaj z moich usług!

 

Odnośnik do komentarza
"zbyt ogólne" wyniki? Czy chodzi Ci o to, że strony nie będą dopasowane tematycznie?

 

Nie, harwester wyda wyniki gdzie sukces będzie na poziomie 0,5 %. Na pewno osoby które próbowali przygotowywać listę do k2 w.d poradnika rajzy już to zauważyli.

z drugiej strony trzeba mieć sporo footprintów pod k2

 

Właśnie, że nie można nawet jednym footprintem ale odpowiednie utworzonym i wymieszanym ze słownikiem.

Rajza nie rozumie podstawowych zasad harwestowania, nie tylko k2. Oczywiście moglem by pokazać na praktycznych przykładach jak  to wygląda ale całkiem prawdopodobnie to wyląduje w kolejnym czyimś płatnym poradniku. Ja nie mam zamiaru szkolić szkoleniowców.

naprawdę dobre proxy aby znaleźć kilka tysięcy konkretnych miejscówek,

 

Harwestowac trzeba przy pomocy prywatnych proxy z podłączonym OCR lub przy pomocy rotowanych ciągle sprawdzanych proxy publicznych. Od jakiegoś czasu proxy L3 nawet jak wydają captcha i tak nie wydają wyników, Google banuje proxy publiczne czasowo.

Jeśli chodzi o k2 to zaindeksowanych w Google stron z k2 jest ok 650 000 ( unikalnych domen). Profili z linkiem  w zależności czym będziemy ich robić można zrobić od 3 do 20k.

niekiedy oczywiście przydają się i ogólne więc nie uważałbym tego za błąd

 

Nie w przypadku k2

Edytowane przez intermac
Odnośnik do komentarza

To i ja dorzyce swoje 3 grosze. 

 

 - Osobiście uważam że proxy to totalna podstawa jesli chodzi o harvest, jak komuś szkoda pary zł na zakup to niech nawet recznie dodaje z jakichs znalezionych  w google miejscówek, po za tym w SeoTools chyba znalazło by sie kilka narzedzie z jakimkolwiek scraperem proxy.

 

- inurl:"item"   - wklepywał ktoś to w ogóle w google? :D

 

- pkt 7 i 8 jeśli nie obciązamy za bardzo maszyny to jest wystarczy mieć odznaczoną opcje "don't show url at scraping"

 

- pkt. 10 i tu znów mozemy skorzystać z opcji "remove duplicate domain at scraping", ot takie małe szczegóły...

 

- jesli nie zalezy nam na jakiejs wyselekcjonowanej liscie, czy tam robimy liste pod k2 itp. to rzeczywiscie nie ma sensu używac operatorów typu inurl: wystarczą proste footprinty typu

 

 

com_k2 task user
itemlist option user k2
component/k2 user "Website URL"
component/k2 itemlist "Website URL"

"option=com_k2" view user

task user option=com_k2

task user option=com_k2 id

index.php/component/k2/itemlist/user

 

i wszelkie mozliwe mixy podobnych... 

 

-  keywordy... zamiast wbudowanej listy polecam przejrzec sobie w google troche k2 i szukać części wspólnych, zorientowac sie jaki content przewija sie najczesciej, używać członów wbudowanych w url profilu itp. 

 

zdecydowanie lepsze rezultaty da nam lista typu:

 

 

 

"Website URL"

"pożyczki online"

chwilówki

"payday loans"

"option" "user"

itemlist

"cash advence"

niz

 

 

 

pizzicato
rot
piss
mildly
sibylline
Saudi Arabia
Gambia
pull-up

 

kombinować oczywiscie mozna na wiele sposobów np. używając jako keywordów nr profili na zasadzie:

 

id=55

id=56

id=132

user/48

user/234

 

nie ograniczając sie wyłacznie do profili ale szukając także urli z "tag" "category" "article", czy np. po konkretnej dacie, dniu kiedy została dodana jakaś treść... (zeby  nie było za łatwo sami musicie poszukać co wklepać w footprint) ;p

 

mozemy szukac bezposrednio strony rejestracji używając np. 

 

component/users/ view=registration
"The date of birth entered should use the format" registration
"The date of birth entered should" component registration

 

przenosic to na inne języki:

 

component view registration "Rejestracja użytkownika"

component/users/ view=registration Créer un compte

 

 

Jak ktoś chce jakieś bardziej sprecyzoane miejscówki to musi sam troche poczytać o operatorach, posprawdzac, potestować. i wtedy mozeby tworzyc footprinty typu np. k2 z francji, pojawiające sie w indeksie w ost. tyg. niskie id profilu/możliwość rejestracji przez soft z którego korzystamy, z pominięciem captchy itp. itd. 

 

- jeszcze mały tip odnosnie filtrowania... jak macie 100k unikalnych domen, przed opcją "Trim to domain"  o której pisał rajza warto na szybko zbudowac sobie liste słow które powinny lub nie powinny zawierać nasze k2.

 

chodzi generalnie o to ze jeśli mamy duzo url'i w których znajduje sie np. showthread, node, guestbook, wiki itp. można je w klika sekund usunąć wchodząc w zakładke filter, tam mamy "delete url if" wybieramy "url include"i wklejamy pojedynczo powyzsze. 

 

Opcja odwrotna -  wybieramy "url doesn't include" i wklejamy wyrażenia, które w k2 powinny mieć miejsce typu:

 

component/k2/itemlist/user

option=com_k2&view

itd.

 

 

 

jak zbyt bełkotliwie to postaram sie jutro coś tam  poprawić/rozwinąć. 

  • Super 3
Odnośnik do komentarza

Według poradnika Rajzy zebrałem przez 16 godzin ponad 18k adresów. Do scrapeowania użyłem około 1000 publicznych proxy. Po przefiltrowaniu zostało prawie 6k adresów i puściłem rejestrację według której  pozytywnie zakończyło się ponad 98% rejestracji. Na maila natomiast dotarło tylko 20% linków do aktywacji. Dlaczego wynik jest taki niski, czy przyczyną może być skrzynka pocztowa? Używam konta na gmailu. 

Odnośnik do komentarza

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek, aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .