Skocz do zawartości
  • Jak zarabiać przez Internet?

    Dołącz do nas, a na pewno zaczniesz zarabiać! Uzyskaj dostęp do unikalnych materiałów i najlepszych metod zarabiania! Pokażemy Ci jak zarabiać na afiliacji, CPA/PPA, Instagram, SMS, programach partnerskich i wielu innych! Często aktualizowane materiały i pomocna społeczność. Zarejestruj się za darmo!

Kaaarolek1

Indeksacja linków - Październik 2020

Rekomendowane odpowiedzi

@MaxPan skoro mega ciężka fraza to przypadkiem nie zrobiłeś czegoś takiego, że najpierw wydałeś 50k zł na zaplecze dobrej jakości, później drugie 50k zł na linki z wp, onetów itp a na koniec zenkiem, Xneo czy innym softem dałeś te arty, profile itp? :)

  • Dzięki! 1

/*Antyspam bot */

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Kiedy strona wskoczyła w top, 2 dni przed tym był strzał 120k publicznymi w 301ki,  na tej domenie są inne linki seo, to jest oczywiste. Pokazem foto dlatego żeby pokazać, że profile działają w kupie z innymi działaniami, linkami. Ciężkie frazy samymi profilami, komentarzami, publicznymi artykułami nie zrobisz, ale na pewno te  linki "kopią" jeśli ich przyłożyć w odpowiednie miejsce. Jeśli mówimy już o zapleczach to czym te zaplecza linkować?innymi zapleczami ? płatnymi linkami? swlem? Oczywiście, że publicznymi. Ogólnie najczęściej popełniany błąd teraz, jeśli chodzi o zaplecza. Ludzie kupują domeny  z historią,  linkami stawia tam jakie wordpresy i myślą, że takie zaplecza będą odrazu kopać.  Już dawno istnieje takie coś jak PBN algorytm i moc z takich zapleczy jest lub zerowa lub minimalna. Beż porządnego podlinkowania zaplecza nowymi linkami, odejścia od schematów: domena, blog 10 artykułów z linkiem na wordpresie za dużo nie da się zdziałać. Publiczne linki kopały, kopią i będą kopać dla tego, że w zasadzie to są linki polecane przez wyszukiwarkę (linki naturalne) po prostu algorytmy już na tyle zaawansowane, że samo przyłożenie publicznych linków w dużej ilości w stronę docelową malo co daje jeśli robić tylko to.

Edytowane przez MaxPan
  • Super 2

spacer.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@MaxPan

Wypowiedziałeś się w tak chaotyczny sposób że trudno zrozumieć co masz na myśli ale postaram się to jakoś poukładać tak żeby było jasne. Algorytm googla to dość skomplikowana rzecz więc będę dużo upraszczał.

1 godzinę temu, MaxPan napisał:

Pokazem foto dlatego żeby pokazać, że profile działają w kupie z innymi działaniami, linkami.

Dywersyfikacja prowadzonych działań to najważniejsza rzecz w SEO. Niektórzy nie zdają sobie sprawy z prostej sprawy - algorytm patrzy na całość przez pryzmat jednego elementu. Sprawdza każdą rzecz z osobna a następnie sprawdza jak to wygląda na tle całości. Nie istnieje coś takiego jak "naturalny profil linków" ponieważ algorytm nie tyle co szuka naturalności a jej braku! Prościej jest bowiem znaleźć elementy działań świadczące o próbie manipulowania wynikami wyszukiwania niż z setek miliardów zmiennych stworzyć coś na wzór "naturalnie wyglądającej strony".  Tworzenie takiego algorytmu to nie jest taka prosta sprawa ponieważ trzeba wziąć pod uwagę tysiące zmiennych - często też jeden problem odkrywa kolejne (Swoją drogą dzięki temu wiemy że algorytm nie jest cudowny i da się go oszukać).

1 godzinę temu, MaxPan napisał:

Ludzie kupują domeny  z historią,  linkami stawia tam jakie wordpresy i myślą, że takie zaplecza będą odrazu kopać.  Już dawno istnieje takie coś jak PBN algorytm i moc z takich zapleczy jest lub zerowa lub minimalna. Beż porządnego podlinkowania zaplecza nowymi linkami, odejścia od schematów: domena, blog 10 artykułów z linkiem na wordpresie za dużo nie da się zdziałać.

Oczywiście. Dlatego zaplecze musi być prowadzone tak jak każda inna strona. Prowadząc działania na zapleczu (dodając treści, linkując, wprowadzając zmiany, aktualizując informacje we wpisach) dajemy wyszukiwarce sygnały że strona jest "wartościowa" (czyli że nie jest zapleczem postawionym tylko po to żeby z niego linkować). Ciągłość to jest to czego oczekuje od nas wyszukiwarka. Strona na której od długiego czasu nic się nie dzieje może zostać uznana przez wyszukiwarkę jako strona z treściami nieaktualnymi lub bezwartościowa.

1 godzinę temu, MaxPan napisał:

Publiczne linki kopały, kopią i będą kopać dla tego, że w zasadzie to są linki polecane przez wyszukiwarkę (linki naturalne) po prostu algorytmy już na tyle zaawansowane, że samo przyłożenie publicznych linków w dużej ilości w stronę docelową malo co daje jeśli robić tylko to.

I tak i nie. Jeżeli mówimy o walnięciu automatem setek tysięcy linków w krótkim czasie to może zostać to za sztuczne działanie. Jednak jestem pewien, że szpece od algorytmów którzy siedzą nad tym biorą pod uwagę powstawanie stron które rozejdą się viralem.

Przykładowy problem z napływem dużej ilości linków i rozpoznaniem czy świeżą stronę warto umieścić w topkach na "trudne frazy".

Kilku naukowców z jakiegoś tam uniwersytetu wynalazło lek na każdy rodzaj raka. Postanawiają wyniki badań i skład chemiczny leku opublikować w internecie. Kupują więc domenę i stawiają byle jaką stronę - na tej stronie jest krótki opis badań i leku a reszta do pobrania jest w .pdfie. Strona wygląda jak z 2005 roku i nikt nie wziął się za optymalizacje. Naukowcy obdzwaniają swoich kolegów z innych uniwersytetów i podają im adres strony. W ciągu godziny od publikacji strony powstaje kilkaset linków, po 24 godzinach jest już ich kilkaset tysięcy. Strona ląduje w topkach na większość trudnych fraz związanych z leczeniem raka.

Wnioski

1. Algorytm nie zawsze bierze pod uwagę optymalizację strony. W rozważonym przypadku duży napływ linków z wielu platform sprawił, że strona poszybowała w wynikach wyszukiwania.

2. Dywersyfikacja linków przychodzących w rozważanym przypadku miała kluczowe znaczenie. Do strony naszych naukowców linkowały mocne witryny pokroju wielkich platform informacyjnych ale także małe świeże blogi, kanały YouTube i profile w mediach społecznościowych.

3. Do momentu aż komputery nie będą mogły oceniać wartości merytorycznej strony algorytm będzie bazował na linkach. Ilość, jakość, forma i zróżnicowanie linków przychodzących jest na ten moment najprostszym sposobem na ocenę czy dana strona jest wartościowa.

4. Skoro ja wpadłem na to że takie strony mogą powstawać i wypadałoby je uwzględnić w wynikach wyszukiwania to szpece siedzący nad algorytmem tym bardziej na to wpadli.

5. Skoro biorą oni takie scenariusze pod uwagę oznacza to że jakaś część algorytmu która stara się rozpoznać viral.

6. Skoro część algorytmu odpowiadająca za viral istnieje oznacza to że jest możliwe wybicie strony setkami tysięcy linków w krótkim czasie. Sprawę utrudnia to że nie wiemy jak ten algorytm wygląda. Na 100% jest on bardziej dopracowany niż kilka lat temu.

P.S

Mam COVID'a i muszę odpocząć po napisaniu jednego posta. Noście maski :D 

  • Super 3
  • Dzięki! 2

spacer.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wracając do tematu indekserów, niestety na tą chwilę wygląda to tragicznie, polskie indeksery w większości oparte były o indeksowanie przez SC, a jak wiemy google wyłączyło tą opcję. Nadzieja była w 1 indekserze, ale i on działa w cały świat, w 1 dzień wrzucone linki zaindeksuje, a kolejne 5 dni bez indexu. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Cytat

Jeżeli mówimy o walnięciu automatem setek tysięcy linków w krótkim czasie to może zostać to za sztuczne działanie. 

 ale w którym miejscu ja napisałem, że te linki przyłożone w jedno miejsce? Owszem jednoczesnej ale nie w jedno miejsce. Powiem, więcej tam nawet jest podpowiedź gdzie.

Cytat

Nie istnieje coś takiego jak "naturalny profil linków" ponieważ algorytm nie tyle co szuka naturalności a jej braku! 

ale czym jest naturalność ja nie brakiem schematów, więc istnieje coś takiego jak "naturalny profil". Gdzie jest dywersyfikacja miedzy typami linków, anchorami, atrybutami, inne.

Oczywiście wiek linków też ma znacznie, pośrednie.

Cytat

 uwagę powstawanie stron które rozejdą się viralem.

viral obecnie mocno zakotwiczony na socialach, wiec na pewno algorytm to bierze pod uwagę. Zachęcić użytkowników do wyłącznie seo linkowania, obecnie jest niemalże nierealne.

 

Cytat

Mam COVID'a i muszę odpocząć

To zdrówka życzę, kuruj się :D  

Cytat

Oczywiście. Dlatego zaplecze musi być prowadzone tak jak każda inna strona. Prowadząc działania na zapleczu (dodając treści, linkując, wprowadzając zmiany, aktualizując informacje we wpisach) dajemy wyszukiwarce sygnały że strona jest "wartościowa" (czyli że nie jest zapleczem postawionym tylko po to żeby z niego linkować). Ciągłość to jest to czego oczekuje od nas wyszukiwarka. Strona na której od długiego czasu nic się nie dzieje może zostać uznana przez wyszukiwarkę jako strona z treściami nieaktualnymi lub bezwartościowa.

Testowałem, i powiem tak : statyczne strony zapleczowe też mogą kopać, sam fakt dodania nowych treści nie jest decydującym. W topach jest pełno stron z statycznym kontentem,

Cytat

1. Algorytm nie zawsze bierze pod uwagę optymalizację strony. 

Zauważyłem, że stronę można nawet prze-optymalizować. Ogólnie jesli wykluczyć sklepy internetowe na reszcie stron optymalizacja w moim wykonaniu wygląda na poprawnym w/d mnie Title, konstrukcji URL, wyeliminowaniu DC.

Cytat

Wracając do tematu indekserów, niestety na tą chwilę wygląda to tragicznie, 

ale po co Tobie cyferki?

kolega na przedniej stronie tematu napisał

Cytat

Ja spamuje dalej, strony idą do góry, czyli wrzucone linki do indekserów jakoś (mniej lub bardziej) się indeksują i rankują. 

Ja uważam, że indeksowanie nie zmieniło się, po za czasowym ( tak mówią) wyłączeniem funkcji w konsoli. Zmienia się sposób w jaki wyszukiwarka nam pokazuje indeks, zmienia się którymi robotami co indeksuje. Podejrzewam, że tworzą coś ogólnego dla wszystkich swoich serwisów i usług. Wskazują na to problemy z kloakinkiem u tych co działali/dzialają na starych schematach dywersyfikacji. Tak jak opowiadają mi osoby z którymi kontaktuję się czasami, Google "przelatuje" przez kolaking własnie przy pomocy innych swoich narzędzi. Ja stawiam kloaki w inny sposób i moje jak na razie żyją.

 

 

Edytowane przez MaxPan
  • Super 1

spacer.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, MaxPan napisał:

ale czym jest naturalność ja nie brakiem schematów, więc istnieje coś takiego jak "naturalny profil".

Chodziło mi o definicję którą powtarzają ludzie którzy z SEO mieli styczność tylko w poradnikach czyli o utarte 70% dofollow, 30% nofollow, X linków z platform X, Y linków z platform Y. Przez mnogość przypadków określenie jednego naturalnego profilu dla każdej strony nie jest możliwe. To co będzie naturalne dla jednej strony nie będzie naturalne dla drugiej. Wolałbym nie mówić o "naturalnym profilu linków" ponieważ sugeruje to istnienie jakiegoś określonego (braku) schematu który jest uniwersalny i odnosi się do każdej strony zaindeksowanej w wyszukiwarce.

Schemat może być powtarzalny (ale też nie musi) ale w obrębie danej tematyki. To co będzie naturalne dla strony z newsami zazwyczaj nie będzie naturalne dla bloga o rybkach akwariowych.

Nie znamy algorytmu i możemy jedynie wyciągać wnioski na podstawie tego co działa a co nie działa. Obserwacja, testowanie i logika to nasze jedyne narzędzia w walce z wujaszkiem google :D 

14 minut temu, MaxPan napisał:

 Testowałem, i powiem tak : statyczne strony zapleczowe też mogą kopać, sam fakt dodania nowych treści nie jest decydującym. W topach jest pełno stron z statycznym kontentem,

Nigdzie nie napisałem że nie mogą kopać ani to że dodawanie treści jest czynnikiem decydującym. Nowe treści są jednym z czynników - których są setki.

18 minut temu, MaxPan napisał:

 ale w którym miejscu ja napisałem, że te linki przyłożone w jedno miejsce? Owszem jednoczesnej ale nie w jedno miejsce. Powiem, więcej tam nawet jest podpowiedź gdzie.

Napisałem że może - nie musi :D

18 minut temu, MaxPan napisał:

 To zdrówka życzę, kuruj się :D  

Najgorsze mam za sobą ale dziękuje :P

18 minut temu, MaxPan napisał:

 Zauważyłem, że stronę można nawet prze-optymalizować. Ogólnie jesli wykluczyć sklepy internetowe na reszcie stron optymalizacja w moim wykonaniu wygląda na poprawnym w/d mnie Title, konstrukcji URL, wyeliminowaniu DC.

Mam takie samo zdanie. Ktoś zaraz zapyta - no ale jak to! Google samo podpowiada żeby skupić się na optymalizacji strony. Zgadzam się, ale patrząc na to z punktu widzenia gościa od algorytmu to strona idealnie zoptymalizowana jest prowadzona przez kogoś kto się zna na temacie i jest sygnałem dla algorytmu że mogą tam być prowadzone (lub mogą być prowadzone w przyszłości) działania mające na celu manipulowanie wynikami wyszukiwania.

  • Super 1

spacer.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, MaxPan napisał:

p.s co do indeksacji ogólnie znanymi sposobami, przecież indekser Oka z PiO działa już na poziomie ok 50% za pierwszym strzałem.

Indekser oki do spamowania T2, T3  bardzo drogo wychodzi.

 

Fajnie się wątek rozkręcił, nie pozostało nic innego jak linkowanie, testowaniem wyciąganie wniosków.


Najtańsze przedłużenia domen .pl w Polsce - SeoHost

Polecam InstantProxies - 10 prywatnych proxy = 10$

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Cytat

Indekser oki do spamowania T2

Ale on ma 2, ten tańszy też już działa i kosztuje ok 30 zł za 100 000 linków.


spacer.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, MaxPan napisał:

Ale on ma 2, ten tańszy też już działa i kosztuje ok 30 zł za 100 000 linków.

no to mnie zaskoczyłeś. Widziałem na PIO wątek, że jego indekser działa ale myślałem że chodzi o  addurla, nic nie wiedziałem o drugim indekserze.

Teraz to inna bajka. Kupuje i zaraz sprawdze jak to działa.


Najtańsze przedłużenia domen .pl w Polsce - SeoHost

Polecam InstantProxies - 10 prywatnych proxy = 10$

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przetestowane, szału nie ma skuteczność na publicznych miejscówkach w okolicach 10%, bardzo długo system przetwarza linki, u mnie trwało to 4 dni

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uważacie, że to dobry czas do linkowania nowej domeny/podstron skoro "buffor" tylko się zapycha? Intuicyjnie myślę, aby nadal robić swoje (dywersyfikacja linków) nie patrząc na to, że są w wiekszosci nieindeksowane - ale czy wtedy nienaturalne będzie, że jak google odmrozi to nagle będzie BOOM? Może lepiej wstrzymać się ze wszystkimi działaniami i skupiać się tylko na On-Page?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Alledrogo z tym,  że google odmrozi i będzie nagle boom to się nie przejmuj bo stanie się to globalnie i dosięgnie każdego : )

 

Po prostu rób swoje, mają jakieś problemy ale to minie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie czytałem całego wątku, przeglądnąłem pobieżnie i widziałem, że ktoś sprawdza site:link czy jest zaindeksowana podstrona. Na własnym przykładzie to sprawdziłem: link nie pojawił się w site ale pokazuje się w wynikach wyszukiwania, w GSC po wklejeniu linku również pokazywało się jako zaindeksowane oraz w GSC pojawiło się, że jest link z tej witryny.


Udzielam wsparcia SEO | Tworzę aplikacje i migracje | tyle zarobiłem nic nie robiąc
40.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem problem z indeksacją zostanie z nami już na zawsze. Nie chce mi się wierzyć, że opcja "pobierz jako google" wróci i wszystko wróci do normy.


Najtańsze przedłużenia domen .pl w Polsce - SeoHost

Polecam InstantProxies - 10 prywatnych proxy = 10$

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Z wypowiedzi Muellera z Google można wywnioskować, że jeśli narzędzie wróci będzie mocno ograniczone i ma być używane jako ostateczność. Nawet jakieś ankiety robił, dlaczego to narzędzie ma wrócić. Póki co nie zapowiada się na szybki powrót i lepiej się nawet nie nastawiać na powrót. 

Polecam poczytać:

https://www.searchenginejournal.com/google-john-mueller-request-indexing-feature/387195/

 

Edytowane przez kowalski

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niektórzy się martwią, że wrzucone linki do indekserów zostaną ponownie przetworzone w momencie odblokowania przez Google opcji addurl i będzie wielki boom linków.

Spokojnie nic takiego nie nastąpi, z praktycznego punktu widzenia jest to nie opłacalne dla właścicieli indekserów. Jeśli na chwilę obecną pakiet 10 000 linków dziennie kosztuje 100zł, jeśli Google odblokuje metodę zgłaszania stron i ją sprawi, że koszt mocno skoczy w górę to oczywiste, że takich linków nie będzie nikt ponownie przetwarzał. Jest to po prostu nieopłacalne. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.


×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .