Skocz do zawartości

Brak miejsc do linkowania - co robić?


Gość

Rekomendowane odpowiedzi

Lista mi się skończyła, 50k generic keywordów widocznie nie wystarcza bo po ok. 10 zweryfikowanych linków program wywala, że nie ma więcej miejsc do linkowania. 20 prywatnych proxy + scrapowanie publicznych w tle.

 

Żeby nie pisać litanii jakich używam silników itd wstawię po prostu screeny:

 

post-420-0-77725300-1409862278_thumb.jpg

post-420-0-16975600-1409862280_thumb.jpg

post-420-0-68052700-1409862281_thumb.jpg

post-420-0-21053500-1409862284_thumb.jpg

post-420-0-06270300-1409862286_thumb.jpg

 

Myślę nad dodaniem silników tylko czy ma sens używanie innych do T1 niż teraz?

Co dodać, co wywalić? Projekt jest T2 + Secondary Links, Tier niżej ma gorsze arty oraz mniejsze wymagania co do PR i linków wychodzących.

 

 

Odnośnik do komentarza

Dołącz do nas za darmo i naucz się zarabiać!

  • Dostęp do darmowych poradników pokazujących krok po kroku jak zarabiać w Internecie
  • Sposoby zarabiania niepublikowane nigdzie indziej
  • Aktywna społeczność, która pomoże Ci rozwiązać problemy i doradzi
  • Profesjonalne treści na temat SEO, social media, afiliacji, kryptowalut, sztucznej inteligencji i wiele więcej!

 

 

A nie myślałeś może o tym, aby skrobać własne listy? To wydaje się o wiele lepsze rozwiązanie, GSA słabo sobie radzi z wyszukiwaniem nowych dobrych miejsc. Takie jest moje zdanie.

 

Mam co raz bardziej ograniczony budżet i nie mogę kupić ScrapeBox'a a ten z forum ma niedziałające scrapowanie.

Odnośnik do komentarza

Mam co raz bardziej ograniczony budżet i nie mogę kupić ScrapeBox'a a ten z forum ma niedziałające scrapowanie.

 

Możesz spróbować darmowej wersji Gscrapera - posiada w darmowej wersji opcję skrobania, to chyba najważniejsza funkcja. Z tym, że będziesz musiał jakoś załadować tam sporo proxy, najlepiej jakieś publiczne lub coś w ten deseń, bo na prywatnych to za daleko nie zajedziesz. Jeśli miałbyś pełną wersję, to masz 7 dni proxy za free od serwisu bez limitu - następnie możesz kupić na miesiąc pakiet nielimitowanego proxy za 68$ na miesiąc i również nie interesuje Cię nic (polecam).

Edytowane przez gelmen
Odnośnik do komentarza

Możesz spróbować darmowej wersji Gscrapera - posiada w darmowej wersji opcję skrobania, to chyba najważniejsza funkcja. Z tym, że będziesz musiał jakoś załadować tam sporo proxy, najlepiej jakieś publiczne lub coś w ten deseń, bo na prywatnych to za daleko nie zajedziesz. Jeśli miałbyś pełną wersję, to masz 7 dni proxy za free od serwisu bez limitu - następnie możesz kupić na miesiąc pakiet nielimitowanego proxy za 68$ na miesiąc i również nie interesuje Cię nic (polecam).

 

Fajnie to wygląda tylko na aktualny dzień 68$ miesięcznie to za dużo, kilka miesięcy temu mógłem sobie pozwolić.

Czy darmowa wersja ma jakieś ograniczenia do wyskrobanych stron? Np. 10k na 24h.

Proxy publicznie to nie problem, GSA dobrze to robi ;)

Odnośnik do komentarza

Z tego co pamiętam, to nie ma limitów.

Dobrze jest zrobić swoje własne footprinty, może być nawet zlepek z różnych for, jednak ważne aby dobrze je przesortować. Ważne aby nie były to footprinty z operatorami wyszukiwania bo Google przez takie rzeczy szybko banuje proxy a programy do harvestowania mają ciężej (testowałem i faktycznie tak jest) - poczytaj o tym. :) Przy dobrych footprintach oraz proxy osiągam 80.000 adresów na minutę, więc myślę, że nie jest źle (takie wyniki tylko z gscraper, scrapebox śmierdzi). :)

Odnośnik do komentarza

Darmowa wersja posiada opcje filtrowania skrobniętej listy?

Nie rozumiem :

 

Dobrze jest zrobić swoje własne footprinty, może być nawet zlepek z różnych for, jednak ważne aby dobrze je przesortować. Ważne aby nie były to footprinty z operatorami wyszukiwania 

Jak mam je zrobić? I co to jest operator wyszukiwania?

Odnośnik do komentarza

Tak, posiada taką opcję (Usuwanie duplikatów, sprawdzanie PR, OBL itd.).

Operatory wyszukiwania: http://poradnik-seo.pl/pozycjonowanie/operatory-wyszukiwania,indeksowanie-stron.html

Jak zrobić footprinty? Po prostu poszukać ich w internecie, a następnie odpowiednio przesiać szczególnie od tych z operatorami wyszukiwań. Możesz też zrobić sam od podstaw, ale to dużo pracy i są na ten temat poradniki w internecie.

Odnośnik do komentarza

Tak, posiada taką opcję (Usuwanie duplikatów, sprawdzanie PR, OBL itd.).

Operatory wyszukiwania: http://poradnik-seo.pl/pozycjonowanie/operatory-wyszukiwania,indeksowanie-stron.html

Jak zrobić footprinty? Po prostu poszukać ich w internecie, a następnie odpowiednio przesiać szczególnie od tych z operatorami wyszukiwań. Możesz też zrobić sam od podstaw, ale to dużo pracy i są na ten temat poradniki w internecie.

 

Aaa, wiedziałem co to są operatory w takim razie tylko pod inną nazwą :)

A nie mogę użyć paczek z footprinatmi? Widziałem takie.

Odnośnik do komentarza

Możesz, tylko lepiej będzie jak pousuwasz te z operatorami. :)

 

No i dzisiaj w 2godz na własnyn PC wyskrobałem coś tam. Po usunięciu duplikatów i IP zostalo 8429. Na VPS pewnie tyle by było w 20 minut ;)

Pewnie lista jeszcze nie jest dobra. Zapewnie mam usunąć unknown PR lecz jak to zrobić? Coś jest jeszcze do roboty?

Odnośnik do komentarza

Zapewnie mam usunąć unknown PR lecz jak to zrobić?

 

Najpierw: ycvwea.jpg

 

Następnie: 7znpyy.jpg

To by było na tyle zabawy w Gscraper, z resztą GSA powinien dać sobie radę. 9k to bardzo mała lista, jak GSA ją "przeleci" to wyjdzie zaledwie kilka/kilkanaście verified. Jeśli chcesz odciążyć GSA możesz jeszcze usunąć OBL większe niż np. 50, robisz podobnie jak wyżej Ci pokazałem, jeśli oczywiście używasz tego filtra w ustawieniach. :)

Odnośnik do komentarza

van kosiarce kończy sie kasa xd? podobno tyle zarabiałeś :D

 

hehe, faktycznie śmieszne to nie jest dział offtop więc proszę, nie pisz postów, które nie mają powiązania z tematem.

 

 

Najpierw: ycvwea.jpg

 

Następnie: 7znpyy.jpg

To by było na tyle zabawy w Gscraper, z resztą GSA powinien dać sobie radę. 9k to bardzo mała lista, jak GSA ją "przeleci" to wyjdzie zaledwie kilka/kilkanaście verified. Jeśli chcesz odciążyć GSA możesz jeszcze usunąć OBL większe niż np. 50, robisz podobnie jak wyżej Ci pokazałem, jeśli oczywiście używasz tego filtra w ustawieniach. :)

 

Dzięki wielkie za pomoc, łap reputy ;)

Jakieś tipy jeszcze by poprawić kampanie?

Odnośnik do komentarza

Kampanie w GSA? Moim zdaniem podstawą są dobre listy - testuj, testuj i jeszcze raz testuj. :)

Trochę nie dobrze, że nie masz VPS i pełnej wersji Gscrapera. Mimo wszystko wierzę, że małymi kroczkami dojdziesz do tego, czego chcesz. :)

 

Mam VPS tylko po prostu na mały test odpaliłem GScrapera na PC ;)

Spokojnie, dzisiaj na noc leci skrobanie :D

Odnośnik do komentarza

Jednak GScraper ma ograniczenie do 100k linków na raz. Na VPS po 1.5h osiągnął limit.

Jak wejść do drugiego obrazka? Pewnie też w opcji premium :|

 

Ten limit 100k to jest na raz, że możesz za chwilę włączyć od nowa czy na np. 24h? Nie widziałem, żeby pisali gdzieś o tym limicie.

Jeśli nie masz tej zakładki w darmowej wersji, to może spróbuj przesortować listę Scrapeboxem z forum? Skoro nie chodzi harvestowanie, to może będą chodzić chociaż te filtry: PageRank checker, OBL checker, remove duplicate url's/domains.

Odnośnik do komentarza

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek, aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .