Skocz do zawartości

SEO, AI oraz sporo contentu – czyli droga... no właśnie, gdzie?


Rekomendowane odpowiedzi

W dniu 24.11.2023 o 18:02, Marko-Majk napisał(a):

Widzę że bazujesz na modelu gpt 3.5 turbo i gpt4 (najnowszym) mógłbyś opisać trochę jak cenowo to wychodzi? Różnice w cenie między 3.5 turbo a gpt4? Świetny temat! 

na gpt4 kasa topnieje w oczach. odpal sobie playground i sam poprobuj https://platform.openai.com/playground

ai detectory polecam olac, wnosza niepotrzebny zamet a tresci gpt3,5 normalnie rankuja.

W dniu 23.11.2023 o 20:24, mdevo napisał(a):

Można więc uznać, że nie zaczynałem od zera, ale z bardzo małym knowledge, dlatego pisałem to +/- 3 miesiące, ale w to wchodzi testowanie i ulepszanie promptów i dokładanie nowych funkcji do appki. Taka pierwsza działająca wersja była gotowa duuużo wcześniej.

znam ten bol, tydzien temu mialem gotowy skrypt do generowania artykulow a sie ostatecznie okazalo ze to wersja 0.1 :) prompt i kod przeszedl tyle zmian ze szok. na szczescie teraz juz sluzy jako baza do dalszych dzialan.

 

Edytowane przez japongl
  • Super 1
Odnośnik do komentarza

Dołącz do nas za darmo i naucz się zarabiać!

  • Dostęp do darmowych poradników pokazujących krok po kroku jak zarabiać w Internecie
  • Sposoby zarabiania niepublikowane nigdzie indziej
  • Aktywna społeczność, która pomoże Ci rozwiązać problemy i doradzi
  • Profesjonalne treści na temat SEO, social media, afiliacji, kryptowalut, sztucznej inteligencji i wiele więcej!

 

 

W dniu 24.11.2023 o 18:02, Marko-Majk napisał(a):

Widzę że bazujesz na modelu gpt 3.5 turbo i gpt4 (najnowszym) mógłbyś opisać trochę jak cenowo to wychodzi? Różnice w cenie między 3.5 turbo a gpt4? Świetny temat! 

Przecież ceny API dla każdego modelu są publicznie dostępne na stronie OpenAI :)

9 godzin temu, Frenzy92 napisał(a):

Ile kosztuje Cię wygenerowanie jednego artykułu?

Od $0.02 do $0.04, to takie skrajne widełki. Bardziej dokładne to $0.035 do $0.04. Staram się teraz jeszcze optymalizować prompty, zobaczymy jak to wyjdzie finalnie.

7 godzin temu, japongl napisał(a):

na gpt4 kasa topnieje w oczach.

Na GPT-4 tak, ale na GPT-4 Turbo jest już znacznie taniej. Uważam, że te ceny nie są bardzo zaporowe, szczególnie, że GPT-4 Turbo dużo lepiej interpretuje prompty, niż GPT-3.5 Turbo. Przeważnie nie trzeba też używać few-shotów, co znacznie zmniejsza zużycie tokenów w prompcie.

Odnośnik do komentarza
  • 2 tygodnie później...

Update!

Kolejna strona dość ładnie się wybija (artykuły względnie krótkie, ale treściwe – 3000-3500 zzs). Wstawiam screena z Semrusha i GSC dla porównania:

OrytbEg.png

P3ZQ40i.png

Co ciekawe, witryna jak i sitemapa zostały wrzucone w GSC dopiero 17 listopada, a wyniki już są dość niezłe :)

Se8746F.png

Od wczoraj zacząłem również stawiać strony na wygasłych domenach z już lekko ugruntowanym zapleczem linków. Update co do tych domen na pewno pojawi się w następnych miesiącach.

Coś z innej beczki, czyli pluginy do Wordpressa!

Wtyczki napisane już jakiś czas temu, ale nie było w tym dzienniku miejsca żeby gdzieś to umieścić (a nie chcę jednak pisać samych ścian tekstu, a przeplatać dłuższe wpisy z krótszymi). No więc tak:

Pierwsza, umożliwiająca wygenerowanie:

  • Opisów dla istniejących kategorii oraz podkategorii
  • Opisów/bio istniejących autorów tak, aby były powiązane z tematyką witryny, jak i tematami o których często pisze dany autor
  • Podstrony "autorzy" wraz z ich zdjęciami oraz wcześniej wygenerowanymi opisami

fy7tdj7.png

Druga, służąca do półautomatycznego uzupełniania metadaty w wyróżnionych obrazach.

Często podczas dodawania wyróżnionych obrazów z różnych źródeł, czy to poprzez zwykły upload z naszego komputera, czy też przy użyciu zewnętrznych wtyczek posiadają one różne dziwne, nazwy pliku, niekoniecznie przyjazne SEO alt tagi, czy tytuły. Nie znalazłem publicznie dostępnej wtyczki, która automatycznie by te dane zmieniała na takie, które są przyjazne SEO i pasują do przydzielonego im postu. Postanowiłem więc napisać coś swojego. Funkcjonalność wtyczki prezentuje się następująco:

  • w edytorze wpisu dodaje przycisk umożliwiający zaktualizowanie metadanych przypisanego wyróżnionego obrazu. Po naciśnięciu, automatycznie zyskuje on nazwę (filename) taką, jak post do którego jest przypisany oraz podobny alt tag
  • w głównym dashboardzie/zakładce wtyczki pokazuje ile obrazków zostało już zaktualizowanych, a ile jeszcze powinno mieć zmienione metadane
  • dodaje możliwość masowego zaktualizowania metadanych dla wszystkich obrazów na stronie. Zaktualizowanie 1000 obrazów zajmuje około 4 sekund
  • z poziomu dashboardu wtyczki dodaje możliwość wybiórczego zaktualizowania wybranych przez użytkownika obrazów
  • osobna zakładka z logami
  • nie tworzy dodatkowych kopii obrazów, wszystko odbywa się "na żywym organizmie", dzięki czemu nie podwaja zużywanego przez obrazy miejsca na dysku

nfUa5a9.png6k8esfv.png

zSH7eqv.png

Dodatkowo, pracuję nad wersją aplikacji do generowania artykułów, która będzie pobierała większość danych na temat których pisze z rankujących już witryn (TOP 5/10 z SERPów), a dodatkowo brała pod uwagę kluczowe słowa oraz całe frazy, n-gramy znajdujące się na tych witrynach :) Oznacza to koniec (a przynajmniej OGROMNE ograniczenie) zmyślonych informacji, do czego GPT-3.5 Turbo ma tendencję. Na ten temat jakieś update będą w następnych tygodniach :D Mały sneak peek tego nad czym pracuję (kontynuacja wcześniej wstrzymanego, wręcz porzuconego projektu):

2LpJ70X.png

  • Super 3
Odnośnik do komentarza

Pozwole sobie zadać pytanko :) Gdzieś wyżej pisałeś, że strony jeszcze nie miały linkowania zewnętrznego, u siebie też nie zacząłem. Tylko indekskuje w GSC. 

Przy ilość artykułów +-40 w ciągu miesiące semrush pokazał mi zawrotne 5 słowa kluczowe. Artykłu tworze AI + moja korekta, keywordy z TSK max 25% - czyli według semrush łatwe do wbicia. Linkowanie wewnętrze robie w taki sposób, żeby do każdego i z każdego wpisu wychodziło 3-4 linki wewnętrze. Wszystkie inne podstawowe pierodoły poustawiane. Czy TSK na poziome 25% to jednak dużo czy ja głupi jestem i coś źle robie? 

Odnośnik do komentarza
W dniu 5.12.2023 o 13:34, mdevo napisał(a):

Dodatkowo, pracuję nad wersją aplikacji do generowania artykułów, która będzie pobierała większość danych na temat których pisze z rankujących już witryn (TOP 5/10 z SERPów), a dodatkowo brała pod uwagę kluczowe słowa oraz całe frazy, n-gramy znajdujące się na tych witrynach :) Oznacza to koniec (a przynajmniej OGROMNE ograniczenie) zmyślonych informacji, do czego GPT-3.5 Turbo ma tendencję. Na ten temat jakieś update będą w następnych tygodniach :D Mały sneak peek tego nad czym pracuję (kontynuacja wcześniej wstrzymanego, wręcz porzuconego projektu)

Wygląda to mega porządnie :) Tak trzymaj :)

Skąd czerpiesz wiedzę na temat analizy artykułów pod AI?

spacer.png

Odnośnik do komentarza
8 godzin temu, pumpernikiel napisał(a):

Pozwole sobie zadać pytanko :) Gdzieś wyżej pisałeś, że strony jeszcze nie miały linkowania zewnętrznego, u siebie też nie zacząłem. Tylko indekskuje w GSC. 

Przy ilość artykułów +-40 w ciągu miesiące semrush pokazał mi zawrotne 5 słowa kluczowe. Artykłu tworze AI + moja korekta, keywordy z TSK max 25% - czyli według semrush łatwe do wbicia. Linkowanie wewnętrze robie w taki sposób, żeby do każdego i z każdego wpisu wychodziło 3-4 linki wewnętrze. Wszystkie inne podstawowe pierodoły poustawiane. Czy TSK na poziome 25% to jednak dużo czy ja głupi jestem i coś źle robie? 

Nie możesz brać tego, co wypluje ci Semrush za pewnik. Ja nie raz się przejechałem na tym, że KW, które teoretycznie były widoczne jako easy nie były tak łatwe, bo cała pierwsza strona była obstawiona solidnymi artykułami targetującymi dokładnie ten KW z domen z autorytetem.

To też nie musi być wina "trudnych keywordów". Może po prostu masz problemy z indeksacją? To raczej średnio prawdopodobne, że przy postowaniu 40 artykułów na miesiąc (nie wiem przez ile miesięcy już wrzucasz artykuły), mając większość z nich zaindeksowanych, tylko 5 słów kluczowych wbiło się ponad TOP 100. Wrzucając byle syf (na przykład spun, czy markov content) nawet jakieś longtaile się złapią.

Za mało danych, więc wróżę tutaj lekko z fusów.

Godzinę temu, prawilniaczek napisał(a):

Wygląda to mega porządnie :) Tak trzymaj :)

Skąd czerpiesz wiedzę na temat analizy artykułów pod AI?

Dzięki! :D

Teraz już tak dużo nie czytam, ale wcześniej jeśli chodzi o NLP i AI to sporo czytałem blogów i artykułów na ten temat:

https://towardsdatascience.com/

https://www.analyticsvidhya.com/blog/

Ogólnie polecam Medium, tam często są ciekawe artykuły + wybrane tematy na BHW też często pomagały.

A tak ogólnie to jeśli interesuje mnie jakieś zagadnienie, po prostu je Googluje :)

Odnośnik do komentarza
  • 1 miesiąc temu...

Huh, to już ponad miesiąc, więc czas wrzucić jakąś aktualizację. Tu święta, tu nowy rok, więc nie udało mi się zrobić tyle ile bym chciał, ale sądzę, że zebrało się trochę materiału, który mogę tutaj podrzucić w formie aktualizacji :)

W którymś z wcześniejszych postów wspominałem o ekstrakcji fraz i słów kluczowych z tekstów konkurencji – czyli coś, co robią takie programy jak Contadu, Neuron Writer, czy Surfer. Postanowiłem tutaj zainspirować się tym, jak Neuron Writer (który jest też częścią Contadu – moduł do pisania) ekstraktuje frazy i napisać coś podobnego. Krótko mówiąc: udało się!

Poniżej przedstawiam wyniki na podstawie 7 wybranych stron z TOP 10 SERPów na frazę "jak dbać o higienę jamy ustnej". Pierwsza część obrazka to wyniki z Neuron Writera, druga część to wynik z analizy tych samych stron, ale na podstawie mojego "algorytmu".

MIZfLz5.png

Żeby nikogo nie zmylić – w edytor zostały wklejone TYLKO frazy, które są widoczne obok, w kolumnie "Most Frequent Form", a nie cały, gotowy tekst nasycony tymi frazami.

Celowałem jedynie w wypełnienie zakładki "basic" z Neuron Writera, jak widać udało się prawie perfekcyjnie :) 

Z 59 fraz, które wytypował Neuron Writer, mój program pokrył 46 (z jakiegoś powodu "2 minuty" się nie zaznaczyło).

Warto tutaj zaznaczyć, że mój program nie skupia się na słowach kluczowych, a frazach kluczowych – nie identyfikuje pojedynczych słów, tylko frazy zawierające od 2 do 6 słów ( max. ilość można dowolnie dostosować – zwiększyć lub zmniejszyć – w configu). Dlatego też część pojedynczych słów, które "wypluł" Neuron nie pokrywa się. Te, które się pokrywają są po prostu częścią niektórych fraz, a Neuron je zlicza.

I teraz tak, mój program wypluł dodatkowe frazy lub coś "podobnego" do fraz. na przykład ", technik", "zęby ważna" lub "podniebienia – tam". Wynika to z tego, jak mój program podzielił sobie tekst – w pewnych momentach nie zrobił tego poprawnie ze względu na COŚ lub nie usunął poprawnie znaków interpunkcyjnych, czy też tzw. stopwords. Czym jest coś? Tego jeszcze nie wiem, to jest jedna z pierwszych wersji i na pewno jest jeszcze nad czym pracować i co debugować.

Dodatkowe różnice mogą również wynikać z tego jaki tekst wziął pod uwagę mój program, a jaki Neuron. Neuron czasami bierze też pod uwagę zupełnie nieistotne nagłówki, podczas gdy ja w moim programie starałem się to jak najlepiej wyeliminować.

Przykład na podstawie pierwszej pozycji (nie licząc featured snippeta) na KW "jak dbać o higienę jamy ustnej" (https://www.wapteka.pl/blog/artykul/jak-dbac-o-higiene-jamy-ustnej)

Nagłówki, które przechwycił mój program + zwróć uwagę na "content_length":

UfgfPhW.png

Nagłówki, które przechwycił Neuron:

pvzeE0l.png

...i jeszcze parę innych.

A jak faktycznie wygląda strona i jak content na niej jest skonstruowany?

W0w7rUG.jpg

Neuron tutaj lekko poleciał z tematem :D

Dodatkowo, Neuron pokazuje, że content length na tej stronie to:

CgFiHEW.png

Podczas, gdy mój program pokazuje 2383.

Wygląda na to, że Neuron wziął pod uwagę nie tylko dodatkowe nagłówki, które nie mają nic wspólnego z naszym keywordem, ale też dodatkowy tekst, który pod tymi nagłówkami się znajduje. I stąd właśnie mogą wynikać niektóre różnice :P

A po co mi tak właściwie program do znajdowania tych fraz kluczowych? Będzie to część kolejnej wersji mojej aplikacji do generowania artykułów. Jak już wspominałem, tym razem na podstawie danych z internetu i analizie konkurencji. Docelowo będą dwie wersje – jedna w pełni automatyczna (też korzystająca z tego modułu do ekstrakcji fraz), druga z GUI, edytorem tekstu, generatorem obrazów pod nagłówki i takimi tam pierdołami, abym mógł (ja lub ktoś, hehe) przeglądać tekst przed jego wrzuceniem na stronę, edytować go, automatycznie nasycać dodatkowymi frazami etc. :)

Na dziś to tyle, następna aktualizacja już wkrótce (mam nadzieję)!

Edytowane przez mdevo
  • Super 5
  • Dzięki! 1
Odnośnik do komentarza
20 godzin temu, donmateo napisał(a):

Rozważasz już sprzedaż swojego rozwiązania?

Jak obecnie kondycja Twoich stron?

Prawie wszystkie w górę! Kilka przykładów (nadal żadnego linkbuildingu):

image.thumb.png.8c3785745ed4620a9f3e257f7f5290ff.png

image.thumb.png.e186b332db357c9a95d10aded514f199.png

image.thumb.png.674233379561ecdaaacf5392623747ce.png

image.thumb.png.920b8c587e3a474f00361c8b39b473a4.png

Czy rozważam sprzedaż swojego rozwiązania? Tak, rozważam :D Ale co przyniosą te rozważania, tego nie wiem, czas pokaże :) Udostępnienie narzędzia w formie subskrypcyjnej nie jest takie proste jak może się wydawać.

18 godzin temu, Marko-Majk napisał(a):

@mdevo no to ja już czekam. Ile trzeba będzie przyszykować złotych monet?

Dwie złote sztabki :smoke:

  • Haha 1
Odnośnik do komentarza
2 godziny temu, mdevo napisał(a):

Czy rozważam sprzedaż swojego rozwiązania? Tak, rozważam :D Ale co przyniosą te rozważania, tego nie wiem, czas pokaże :) Udostępnienie narzędzia w formie subskrypcyjnej nie jest takie proste jak może się wydawać.

Amen!

21 godzin temu, Marko-Majk napisał(a):

@mdevo no to ja już czekam.

stań w kolejce! :D Pan @mdevo wie jak robić marketing wokół siebie - dokładając do tego realnie działające narzędzie mamy przepis na sukces! Jedynie uważaj @mdevo właśnie na rodzaje licencji i udostępnianie narzędzia aby nikt Ci w prosty sposób go nie podkradł i nie zaczął resellować. Powodzenia i równiez zapisuję się do listy zainteresowanych!

  • Super 1
Odnośnik do komentarza
1 godzinę temu, japongl napisał(a):

nom, np. Sartre na Blackhatworld (swoją drogą prawdopodobnie Polak). no offence autorze, kto siedzi w temacie SEO & AI to pewnie i tak zna tę sprawę.

Polak, ale większość życia spędził poza granicami naszego cudownego kraju. Byłem z nim na prywatnym Discordzie, sympatyczny gość (złego słowa nie mogę o nim powiedzieć oprócz tego co odwalił na BHW, ale z Discorda nigdy nikogo na nic nie naciągał), szkoda, że nam też nie dał znać o swoich zamiarach i planach zniknięcia, ale wydaje mi się, że nie planował od samego początku exit scamu :P

Nawet jeszcze mam gdzieś source code jego appki na dysku, bo dostałem, ale nie wygląda to tak jak było opisywane :) Ale fakt, sprawa była swego czasu gruba, nawet bardzo.

 

  • Super 2
Odnośnik do komentarza
39 minut temu, GrandCash napisał(a):

A jaka wersja premium czy ta soft? Bo w moje ręce wpadły obydwie wersje + jakieś różne softy :P 
Sartre to kozak, ale słaba akcja z ta ucieczka. Jeden gościu się wkurzył na niego totalnie, i go zdoxxował od stóp do głów i chyba kasę mu oddał :D

mając na uwadze, że jego poprzedni nick na BHW to "brrupsz" a domena nosandbox.com (jeden z dawnych projektow p. Bartosza http://web.archive.org/web/20220626155157/https://whiletruecode.com/) kieruje na swiftgrowth.com (jedną ze stron Jacob Swift aka Sartre) ... nie tak trudno go namierzyc :) ale to juz konczac ten temat ...

szczerze to marzylem o czasach gdzie AI zabije seo copywriting. nie chodzi mi oczywiscie o fachowcow, a o takich zwyklych odtworczych klepaczy. tak ze trzymam kciuki :)

Odnośnik do komentarza
19 godzin temu, darnok734 napisał(a):

Nie pamiętam, czy padło to pytanie ale jak długo zajmowałeś się programowaniem zanim stworzyłeś ten soft do spółki z chatemgpt? Programowałeś coś zawodowo w pythonie czy jak to z Tobą było? :)

Coś tam wcześniej dłubałem, ale niedużo. Głównie jakieś proste skrypty umożliwiające mi automatyzację, scrapowanie, czy generowanie tekstu na podstawie istniejących rozwiązań i bibliotek (np. markov chainy).

59 minut temu, GrandCash napisał(a):

A jaka wersja premium czy ta soft? Bo w moje ręce wpadły obydwie wersje + jakieś różne softy :P 
Sartre to kozak, ale słaba akcja z ta ucieczka. Jeden gościu się wkurzył na niego totalnie, i go zdoxxował od stóp do głów i chyba kasę mu oddał :D

Od niego osobiście dostałem tę niższą wersję. Wiem, że obie latają po pewnym invite-only forum, na którym też jestem, ale nie pobierałem tej "wyższej" wersji. Sporo się różnią? Teraz zapewne wymagają poprawek.

Wiem, że te dwie wersje + jakieś dodatkowe skrypty są na pewno umieszczone na jednym dysku, wszystko razem :P

19 minut temu, japongl napisał(a):

mając na uwadze, że jego poprzedni nick na BHW to "brrupsz" a domena nosandbox.com (jeden z dawnych projektow p. Bartosza http://web.archive.org/web/20220626155157/https://whiletruecode.com/) kieruje na swiftgrowth.com (jedną ze stron Jacob Swift aka Sartre) ... nie tak trudno go namierzyc :) ale to juz konczac ten temat ...

szczerze to marzylem o czasach gdzie AI zabije seo copywriting. nie chodzi mi oczywiscie o fachowcow, a o takich zwyklych odtworczych klepaczy. tak ze trzymam kciuki :)

A co jeśli to był jeden wielki identity theft, a konto na BHW było kupione lub cracked :)? Wiem, że jedna osoba prawdopodobnie znała jego zamiary i też zniknęła krótko po nim, ale zakopmy już tę sprawę – było, minęło :P

  • Super 2
Odnośnik do komentarza
  • 1 miesiąc temu...

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek, aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .