Skocz do zawartości

SEO, AI oraz sporo contentu – czyli droga... no właśnie, gdzie?


Rekomendowane odpowiedzi

Dołącz do nas za darmo i naucz się zarabiać!

  • Dostęp do darmowych poradników pokazujących krok po kroku jak zarabiać w Internecie
  • Sposoby zarabiania niepublikowane nigdzie indziej
  • Aktywna społeczność, która pomoże Ci rozwiązać problemy i doradzi
  • Profesjonalne treści na temat SEO, social media, afiliacji, kryptowalut, sztucznej inteligencji i wiele więcej!

 

 

1 godzinę temu, Ciamciaj napisał(a):

@mdevo masz jakiś sposób na linkowanie pomiędzy artykułami? Inaczej ciężko chyba będzie zbudować Topical authority. 

To właśnie jeden z tych projektów w toku. Póki co witryny, które dość się wybiły staram się linkować za pomocą Link Whispera – w połowie zautomatyzowanego.

Tutaj fajny temat na BHW. Nie korzystam dokładnie z tego, ale pomysł zaczerpnąłem właśnie tutaj: https://www.blackhatworld.com/seo/guide-simple-interlinking-solution-for-your-website-using-link-whisper-python.1521842/

Oczywiście Link Whisper nie jest idealny. Jeśli nie ma się zdefiniowanych konkretnych słów, na które ma linkować (domyślnie są pobierane z tytułu posta i slugu), linkuje on czasami dość losowe frazy (przynajmniej w j. polskim)

Godzinę temu, martines123 napisał(a):

Ciekawy temat. Tylko pytanie się nasuwa zamiast dodatkowego narzędzia do zdjęć Midjourney nie lepiej używać Dalle w OpenAi? Czy po api nie tworzy on zdjęć?

Pewnie by było wygodniej, API do DALL-E 3 jest dostępne. Problem pojawia się w pricingu i rozmiarach obrazków.

Za Midjourney płacę 30 USD miesięcznie i na tym kończy się wydatek. Nieważne ile obrazków wygeneruję. Mam w tym 15h szybkich generacji, co przekłada się na ok. 2000 obrazków (tych w pełnej rozdzielczości) + nielimitowany relaxed mode, który jest nieco wolniejszy, ale nie sprawia to problemu.

Za DALLE- 3 musiałbym płacić od wygenerowanego obrazu.

x4udlfW.png

Docelowo chcę generować obrazy w rozmiarach minumum 1200 szerokości (Google Discover). Z powyższej tabeli to jest ostatnia pozycja w Standard i HD.

2000 * 0,08 USD = 160 USD

2000 * 0,12 USD = 240 USD

Średnio się to kalkuluje.

Dodatkowo Midjourney daje mi spory wybór innych parametrów – https://docs.midjourney.com/docs/parameter-list, podczas gdy DALL-E 3 (póki co, z tego co widzę) jedynie możliwość dostosowania wymiarów (3 opcje) oraz jakości (2 opcje). 

  • Super 3
Odnośnik do komentarza
Godzinę temu, Marko-Majk napisał(a):

W jaki sposób monetyzujesz te 70 stron?

Aktualnie monetyzowanych jest jedynie chyba 10 z nich. AdSense + inne platformy display. Docelowo na wszystkich ma być display + publikacje sponsorowane. Jeszcze mam pewien plan na niektóre z nich, ale będę to opisywał w przyszłych postach :D

Trzymam się reguły, że od 100/150+ UU/dzień (lub jeśli jakaś wleci w Discover to od razu też podpinam, nawet jeśli ma 10 UU/dzień) dopiero podłączam display. Publikacje sponsorowane przyjdą z czasem, czeka mnie jeszcze linkowanie tych domenek żeby miały jakieś wskaźniki.

Domeny raczej bez problemu są akceptowane przez AdSense. Konkurencyjne sieci też nie mają większych zastrzeżeń co do contentu.

Edytowane przez mdevo
Odnośnik do komentarza
9 godzin temu, Mat napisał(a):

Odezwij się na PW to możemy zrobić jakieś wymiany linków w serwisach :) Posiadamy baze 50 portali z ciekawych branżach więc coś możemy dopasować. 

Na pewno będę się odzywał jak będę na etapie linkowania niektórych domen! :)

6 godzin temu, pumpernikiel napisał(a):

Sam działam podobnie od jakiegos miesiąca.... z tym, że na 3 domenach i ogarniam AI ręcznie (teraz mi jest smutno xd)  masz jakiś limit artykułów na blogu czy lecisz z nimi do końca świata? 

Limit ustalam sam, a tym limitem jest liczba słów kluczowych wprowadzonych do pliku po prostu. Czyli w sumie nie ma limitu, bo do każdej strony mogę do woli dodawać nowych słów kluczowych, a tym samym artykułów :)

1000 keywordów = 1000 artykułów, o ile jakaś część z nich nie zostanie uznana za semantyczne duplikaty.

 

Odnośnik do komentarza

Witam, wracam, nie zapomniałem o dzienniku :D. Wracam z szybkim, lecz obszernym apdejtem. Już jakiś czas temu, na przełomie czerwca i lipca wpadł mi do głowy pewien pomysł – a co jakby zamiast stron tylko i wyłącznie pod reklamy display tworzyć jeszcze takie, które da się zmonetyzować inną metodą? Może... afiliacja? No dobra, ale co konkretnie? Może... rankingi produktów!

Komu jednak by się chciało ręcznie przeszukiwać sklepy internetowe, recenzje na YouTube, czy inne rankingi w poszukiwaniu opinii na temat produktów, a tym bardziej zamawiać te produkty i własnoręcznie testować. No a potem jeszcze dochodzi do tego napisanie jakiegoś opisu, bo przecież nie wstawimy samego rankingu na stronę i heja.

I tutaj pojawia się mój pomysł – prawie całkowita automatyzacja tego procesu. Udało mi się stworzyć nową aplikację, a właściwie dodatkowy moduł bazujący na source code poprzedniego generatora artykułów opisanego w pierwszym poście. Narzędzie tworzyło na podstawie wprowadzonego słowa kluczowego cały ranking produktów, zaczynając od wstępu, przez zdjęcia produktów, ich opisy (bazując oczywiście na LLM, gpt-3.5 od OpenAI), aż po odpowiednie linki, które mogą zostać podmienione na afiliacyjne. Opisy produktów oczywiście zgodne są ze stanem faktycznym - nie są to wymyślone, wyimaginowane informacje, lecz faktyczny opis prezentowanego produktu (i nie, nie jest on kopiowany ze strony produktu, jest całkowicie unikatowy).

gTwB6Bn.png

Brzmi całkiem nieźle, prawda? Jest jedno ale – tak generowane rankingi były całkowicie losowe. Nie miałem wpływu na to co pojawia się na pierwszym miejscu, co na drugim, a co na piątym. Nie miałem w ogóle wpływu na to co tam się pojawia. Produkty jedynie były zgodne z podanym słowem kluczowym i pozyskiwane ze stron, które zostały wyznaczone w konfiguracji (bo przecież nie z każdej strony mogę pozyskać link afiliacyjny, który uprawni mnie do pozyskiwania prowizji w modelu CPS).

Tak więc pod koniec września pojawił się kolejny pomysł – zintegrowana wtyczka do Chrome, dzięki której użytkownik będzie mógł manualnie wybrać produkty, które znajdą się w rankingu, a aplikacja zrobi resztę roboty. Został on zrealizowany na początku października. Pozwala to na większą kontrolę nad tym co i w którym miejscu znajdzie się w rankingu.

W skrócie działa to tak:

Po wejściu na stronę partnera (np. Ceneo, MediaMarkt, MediaExpert, OleOle!, Alledrogo :P etc. – w sumie ponad 30 partnerów zsynchronizowanych z wtyczką) i wejściu na odpowiednią stronę produktu na ekranie pojawia się ikonka. Naciśnięcie jej powoduje zescrapowanie danych z tej strony w formacie, który można później wkleić w osobną aplikację generującą rankingi.

Tutaj przyznam, zaszalałem. Stworzyłem GUI (czego przeważnie nie robię). W samym GUI wtyczki można podglądać nazwę produktu, jego cenę oraz dowolnie przesuwać kafelki, a jednocześnie pozycje w rankingu lub usuwać produkty. Planuję jeszcze dodać możliwość zobaczenia ile czasu cookie utrzymuje się w urządzeniu użytkownika, który kliknie w link afiliacyjny (o ile sieć afiliacyjna, której partnerem jest dany sklep podaje taką informację – lepiej wyżej pozycjonować w rankingu te produkty, których cookie utrzymuje się na urządzeniu dłużej, bo jest większa szansa, że użytkownik kliknie w jakiś produkt z TOP 3. Nawet jeśli nie kupi tego produktu to może kupi inny na danej stronie w przeciągu N dni, za który też dostanę prowizję) Po dodaniu produktów, które chcemy, wystarczy nacisnąć "Copy", a wtyczka  skopiuje nam do schowka wszystkie potrzebne dane w formacie akceptowanym przez aplikację do generowania rankingów. Podgląd (scrapemate to nazwa robocza, bo wiesz scrape – że scraper i mate – że ziomek, całkiem cool :smoke:)

lcwFRu9.gif

Oczywiście tutaj wielkie podziękowania dla ChatuGPT za pomoc w pisaniu wtyczki :)

Jak więc wygląda finalnie wygenerowany ranking? A no tak:

8axSMql.png

Tak jak i w pierwszym poście – żadne ręczne poprawki nie zostały tutaj wprowadzone, output prosto z aplikacji, jedynie dodany featured image przeze mnie.

Offtopic: udało mi się dostać do Google News (w zaledwie tydzień po aplikacji, wow. Aż miło się patrzy jak posty indeksują się w 5-10 minut :D) z jedną domeną, więc można się domyślić czego będzie dotyczył następny post ^_^

zlMJ7JZ.pnguFDWnJN.png

 

  • Super 6
  • Dzięki! 1
Odnośnik do komentarza

Mam chwilę na napisanie, więc lecimy z kolejnym apdejtem.

Wczorajszy ruch z Discover na jednej ze stron:

OZT62NX.png

Kolejna, nowa strona wbiła się finalnie w Discover (widać już podstrony w zakładce "Pages", więc oficjalnie wyświetla się w Discover dopiero od wczoraj):

Z1vANf2.png

gAnlpvX.png

W poprzednim poście wspominałem o tym, że jedna ze stron jest już w Google News. Przyznam, że głównym celem było otrzymanie natychmiastowego indeksowania dla tej strony, ale skoro jest już w Google News to dlaczego by nie spróbować na niej publikować też newsów z tej niszy, w której się znajduje :D? Co rozumiem przez słowo newsy? Content, który jest na czasie – wiadomości, nowinki. Jeszcze przed tym zanim strona została zaakceptowana w Publisher Center, zacząłem pracować nad tym, aby takie newsy tworzyć półautomatycznie. Tutaj tak jak w przypadku aplikacji z rankingami – nie chcę pakować wszystkiego jak leci na stronę, chcę móc wyselekcjonować to, co pojawi się w zakładce z aktualnościami.

Tak więc powstała kolejna aplikacja/skrypt umożliwiająca mi tworzenie newsów/artykułów na bazie już istniejących, ALE nie chodzi tutaj o dosłowne kopiuj-wklej, czy też parafrazowanie istniejących artykułów. Aplikacja na bazie danych faktów tworzy unikalny artykuł (krótki, bo na około 3000 zzs, jednak w przypadku takich newsów jest to wystarczająco), który opisuje dane zagadnienie. Można porównać to do copywritera, który otrzymuje dane wytyczne i na ich podstawie robi research oraz pisze na dany temat. Skąd taki copywriter bierze wiedzę? A no z internetu. To samo dzieje się tutaj, lecz półautomatycznie. Moim zadaniem jest jedynie podanie tematu, który chcę żeby był opisany (najlepiej jeśli to będzie link do jakiegoś krótkiego tekstu opisującego dane zagadnienie lub innego artykułu newsowego). Zadaniem aplikacji jest wybranie najbardziej kluczowych faktów z tekstu, a jeśli coś jest niejasne dopełnienie ich innymi informacjami z innych źródeł.

Tutaj przedstawiam przykładowy artykuł na temat ostatnich zawirowań wokół Binance (ok. 3200 zzs):

YhJN4Pt.png

Krótki i napakowany treścią z ostatnich wydarzeń, czyli taki jaki powinien być szybki news.

A w następnym poście może coś o linkowaniu, może o wtyczkach do WP, a może o pobieraniu danych live z SERPów :D

  • Super 2
Odnośnik do komentarza
Godzinę temu, mdevo napisał(a):

Tak więc powstała kolejna aplikacja/skrypt umożliwiająca mi tworzenie newsów/artykułów na bazie już istniejących, ALE nie chodzi tutaj o dosłowne kopiuj-wklej, czy też parafrazowanie istniejących artykułów. Aplikacja na bazie danych faktów tworzy unikalny artykuł (krótki, bo na około 3000 zzs, jednak w przypadku takich newsów jest to wystarczająco), który opisuje dane zagadnienie. Można porównać to do copywritera, który otrzymuje dane wytyczne i na ich podstawie robi research oraz pisze na dany temat. Skąd taki copywriter bierze wiedzę? A no z internetu. To samo dzieje się tutaj, lecz półautomatycznie. Moim zadaniem jest jedynie podanie tematu, który chcę żeby był opisany (najlepiej jeśli to będzie link do jakiegoś krótkiego tekstu opisującego dane zagadnienie lub innego artykułu newsowego). Zadaniem aplikacji jest wybranie najbardziej kluczowych faktów z tekstu, a jeśli coś jest niejasne dopełnienie ich innymi informacjami z innych źródeł.

Ta apka również bazuje na open ai api?

Odnośnik do komentarza
20 godzin temu, Marko-Majk napisał(a):

Ta apka również bazuje na open ai api?

Zgadza się

6 godzin temu, Olivaster napisał(a):

Dobra robota, oby tak dalej. Daj znać ile Ci zaczęło napisanie takiej apki, czy byłeś totalnie świeży jak zaczynałeś ją tworzyć? Korzystam obecnie z gotowców, ale wolałbym mieć jednak coś swojego i nie wiem czy się bawić w pisanie, czy komuś to zlecić.

Dzięki wielkie, miło wiedzieć, że komuś się to dobrze czyta i miło widzieć jakieś pytania!

Przed tym, niż zacząłem pracę nad tymi projektami miałem styczność z Pythonem oraz Django, ale wyglądało to tak, że śledziłem tutorial na YT i z nim tworzyłem coś na wzór własnego mikro-CMS'a + wspomagałem się Stack Overflow. Ostatecznie udało się to odpalić i portal działał na backendzie bazującym na Django, a na frontendzie był Bootstrap.

Można więc uznać, że nie zaczynałem od zera, ale z bardzo małym knowledge, dlatego pisałem to +/- 3 miesiące, ale w to wchodzi testowanie i ulepszanie promptów i dokładanie nowych funkcji do appki. Taka pierwsza działająca wersja była gotowa duuużo wcześniej.

  • Super 1
Odnośnik do komentarza
3 godziny temu, Marko-Majk napisał(a):

Sprawdzałeś może jak artykuly na AI content detektorach? Czy raczej nie zawracasz sobie tym głowy? 

Co detektor to inny wynik. Pamiętaj, że samo OpenAI w pewnym momencie wdrożyło detektor, a skończyło się to tak: https://platform.openai.com/ai-text-classifier

To sporo mówi :)

Fragment konstytucji:

uidrNLf.png

I żeby nie było, że za mały sampel tekstu:

cMJ7aWQ.png

Z innego "detektora":

aXTflHP.png

  • Super 1
Odnośnik do komentarza

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek, aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .