Skocz do zawartości

Znajdź zawartość

Wyświetlanie wyników dla tagów 'poradnik seo' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Informacje i Newsy
    • Przedstaw się!
    • Informacje o forum
  • Zarabianie w Internecie
    • Dzienniki pracy
    • Programy i boty
    • Podatki, prawo, własna firma
    • Portfele internetowe
    • HotPay.pl
  • CPA - Cost Per Action
    • Sieci CPA
    • CPA - Dyskusja
    • Poradniki CPA
  • PPA - Content Locking
    • Dyskusje o Uploadingu
    • Poradniki - Uploading, PPA
    • AstroCash
  • Programy Partnerskie i Afiliacja
    • Dyskusja - programy partnerskie
    • Poradniki o programach partnerskich
    • MyLead.pl
    • Lead.Network
    • FireAds.org
  • SeoTools - najlepsze narzędzia do zarabiania
    • SeoTools - najlepsze narzędzia do zarabiania
  • Pozycjonowanie i Optymalizacja
    • White Hat
    • Poradniki dotyczące optymalizacji i whitehat SEO
    • Black Hat
    • Linkowanie i linkbuilding
    • Newsy SEO
  • Social Media
    • YouTube i inne serwisy Video
    • Facebook
    • Instagram
    • Twitter
    • Inne Social Media
  • Inne metody zarobku
    • Inne metody zarobku
    • Kryptowaluty
    • Bonusy, okazje, promocje
    • Zarabianie na reklamach
    • Konkursy
  • Zarządzanie własną stroną internetową
    • Hostingi, domeny, proxy
    • Wordpress
    • Webmastering i skrypty
    • Webdesign
    • Blogger/Blogspot
  • Inwestycje
    • Dyskusje o inwestycjach
    • Programy typu HYIP
    • Inne programy inwestycyjne
    • Inwestowanie w Opcje Binarne
  • Programowanie
    • Visual Basic
    • Programowanie
  • Zakłady Bukmacherskie
    • Dyskusje o Zakładach Bukmacherskich
    • Poradniki dotyczące Zakładów Bukmacherskich
    • Lista serwisów Bukmacherskich
  • Giełda
    • Sprzedam
    • Sprzedam - poradnik/nisze
    • Usługi
    • Kupię
    • Giełda - pozostałe działy
  • Offtopic

Blogi

  • Blog Ciamciaja
  • BlogaseQ
  • Xander's Bloq
  • Ptr. Blog
  • Pociąg do pieniędzy
  • RilektBlog
  • Shift CORPORATION
  • Szumi w internetach
  • Blog
  • Praca za granicą - "Na wakacje"
  • FeelTheInspiration
  • Piszę, bo mogę
  • yosumitshuBlog
  • Opowiastki nieśmiałego chłopca
  • Blog Ziemnego
  • Blog maly95
  • Kryptowaluty i Opcje binarne
  • Ogólnie o zarabianiu w interencie
  • Blog Moriartiego
  • pasywa
  • Zielona Słomka Blog
  • Social-Script
  • Poleceni na Sejfik.com
  • Blog Alex'a
  • Document Write
  • Pilne
  • Szybko sprawnie i na temat
  • SzinekDev
  • Usługi z zakresu ochrony danych osobowych i informacji – Kryptos24
  • JackeBrouse
  • www.ZainwestujTo.pl
  • W planach...
  • zygi1947
  • Przydatne narzędzia online
  • opo93blog
  • http://bit.ly/2tApFX6
  • SPRAWDZONE SOPOSOBY NA ZAROBEK
  • Zarabianie na sprzedaży linków na stronie
  • Ciekawostki ze świata
  • Twitterland
  • Twitterland
  • Co zrobić by dorobić?
  • Poradniki
  • Osiągnij finansową wolność
  • O mnie
  • Badzelastyczny
  • Instrukcja życia w uniwesum holograficznym
  • Dobra gutuwka
  • Nowość Milcoin
  • https://adpro.futurenet.club/sponsor/dylan1100
  • Blog Olekjs
  • Witam
  • FastMoney&Maker Online
  • Zarabianie w domu ( opłacalna strona zarobkowa! )
  • WTP OTWOCK
  • poszukiwacz-promocji.pl
  • Pomagajcie i zarabiajcie razem ze mna😉😉
  • blogs_blog_65
  • blogs_blog_66
  • Nowe Wiadomości
  • blogs_blog_68
  • Internetowa KA$A
  • blogs_blog_70
  • blogs_blog_71
  • blogs_blog_72
  • blogs_blog_73
  • Czy media społecznościowe, wprowadzają nas w błąd żeby wywolać panikę?
  • blogs_blog_75
  • Blog friz#1

Kategorie

  • Programy Partnerskie - Afiliacja
  • Hosting i VPS
  • Proxy i VPN
  • Portfele Internetowe
  • E-Commerce
  • Kryptowaluty
  • Sieci CPA, CPI, CPS
  • Płatne ankiety i opinie
  • Inne
  • Programy i serwisy do SEO i SEM

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


GG


Skype


Miejscowość:


Zarabiam na

Znaleziono 17 wyników

  1. Chciałbym Wam dziś pokazać pewien sposób na wyszukiwanie łatwych słów kluczowych, które mogą Wam przynieść jakościowy ruch przy pomocy narzędzia jakim jest Ahrefs (dostępne jest w SeoTools). Poradnik ten jest przetłumaczony za środki z reklam na forum, więc dzięki że nas odwiedzasz! Użyjemy frazy "gym bags" jako naszej niszy (będziemy używać tej niszy w całym poradniku). Wyszukaj tą frazę w Ahrefs Keyword Explorer (główne menu) (Upewnij się, że masz zaznaczoną opcję USA jako target, możesz też dodać inne państwa) Teraz kliknij "view all" które znajduje się pod "having same terms". Po tym zobaczysz listę ok. 100 000 fraz (ahrefs w swojej bazie posiada bardzo dużo fraz) My nie potrzebujemy tych wszystkich fraz, przefiltruj je tak jak ja na screenie poniżej: KD: Minimum - 15 Ahrefs KD lub Keyword Difficulty (Trudność frazy) nie rozróżnia fraz kluczowych o niskiej konkurencji od tych z średnią konkurencją. Możesz spokojnie ustawić KD do 25. Volume: Maksymalnie - 250 Frazy z 250 wyszukań miesięcznie są świetne do targetowania. Powody: Większość witryn na pierwszej stronie wyników wyszukiwania nie targetuje na te frazy. Nawet jeżeli jakaś witryna targetuje w ten keyword to zazwyczaj zawiera mało treści Możemy wybić się na tą frazę targetując ten keyword i dodając wartościowy content CPS: Ilość kliknięć na wyszukanie = 1.1 To jest ważny czynnik, który jest zawsze pomijany przez marketerów którzy szukają dochodowych fraz. W uproszczeniu - jeżeli fraza posiada CPS więcej niż 1 to oznacza, że osoba która szuka danej frazy klika więcej niż jeden wynik wyszukiwania. Przykład: Jeżeli fraza to "What's the age of Donald Trump? to użytkownik otrzyma to: Jak widzisz, każdy kto wyszuką tą frazę otrzyma odpowiedź na swoje pytanie bez klikania jakiegokolwiek wyniku wyszukiwania. W tym przypadku CPS może wynosić nawet 0. Powiedzmy, że użytkownik wyszuka coś w rodzaju - "Why my dog is feeling sleepy?" W tym przypadku kliknie w jakiś wynik wyszukiwania po to aby otrzymać odpowiedź na zadane pytanie. Często zdarza się, że szukając informacji ludzie klikają więcej niż jeden wynik wyszukiwania. Mam nadzieję, że rozumiecie. Teraz wracamy do głównego tematu. Po tym jak ustawiłeś wszystkie filtry zostanie Ci mniej niż 100 fraz kluczowych (W zależności od Twojej niszy). Oto co otrzymałem ja (Używając frazy "gym bags"). Oto co będziemy robić: Sprawdzamy wyniki wyszukiwania dla każdej frazy klikając przycisk "SERP". Sprawdzamy czy jakaś słaba strona (DA mniejsze niż 20) pojawia się w rankingu między pierwszą a piątą stronę google. Wyszukujemy wszystkie frazy kluczowe tej strony po to żebyśmy my też mogli się na nie wybić. Zrozumcie, że backlinki są jednym z najważniejszych czynnik w SEO dlatego należy je dokładnie sprawdzić podczas analizowania fraz. Nasz ostateczny cel - Znaleźć słabe strony Teraz kliknij w każdy przycisk "SERP" aby sprawdzić czy jakaś słaba witryna rankuje na konkretną frazę czy nie. Dla pierwszej frazy "best gym bags" strona z DR równym 17 [domain raiting ahrefs'a 17, coś podobnego do DA] jest na 26 pozycji. To jest URL - https://garagegympower.com/best-gym-bags-for-women/ Otwórz "Site Explorer" w innym oknie i wyszukaj domenę [w tym przypadku będzie to garagegympower.com] Następnie kliknij w "Organic Keywords". Otrzymasz ostateczną listę fraz tej strony. Po kliknięciu zobaczysz ogromną listę fraz, teraz ustaw te filtry: Position: Min 5 Oznacza to, że chcemy otrzymać tylko frazy na które strona rankuje między pierwszą a piątą pozycją w google. Volume: Max - 100 KD: Min - 5 Word Count: Max - 4 [Skupiamy się na frazach "długiego ogona"] Include: best, review, top [Zaznacz any] Exclude: 2016,2017,2018 [śmiecowe longtaile, również zaznacz any] Zastosuj także ten filtr: Po zastosowaniu filtrów, kliknij przycisk export aby pobrać wszystkie frazy. Musimy jednak przeanalizować pobrane frazy aby zrozumieć cały proces. Przed analizą fraz, chciałbym żebyście wiedzieli że chcemy się skupić głównie na takich frazach: Frazy How-to, czyli keywordy typu "how to read faster". Stworzymy artykuł na 2000 słów tematycznie powiązany z frazą, dopracujemy stronę aby wyglądała zachęcająco. Te działania mogą sprowadzić na naszą stronę dużą ilość ruchu. "Best of" czyli frazy typu "Best running shoes for women". Frazy z literówkami [Zignoruj je] Więc, frazy które powinieneś wybrać zależą głównie od Twojej strony. Używając mixu fraz "how-to" i "best-of" sprawisz, że Twoja strona będzie bardziej różnorodna. Teraz skupię się na frazach typu "best-of". Weźmy tą frazę - "best running shoes for personeal tendonitis" Oto strony które zajmują wyniki na pierwszej stronie google: Zwróć uwagę, że: W top 10 jest 5 stron które mają DA mniejsze niż 19. Strony z pozycji 5# i 10# nie targetują tej frazy. Pojawiają się wysoko w wynikach tylko dzięki wysokiemu authority. [Te domeny ogólnie są bardzo mocne, dlatego google wrzuciło je w wyniki mimo tego, że nie targetują w ten konkretny keyword] Bierzemy się za tą frazę! Pewnie zapytasz o to, czy zabierze nam to dużo czasu? Rozwiązanie - To jest jedno z najlepszych rozwiązan na rynku SEO, tylko brzmi tak jakby zajmowało dużo czasu ale tak nie jest. Jeżeli wciąż się zastanawiasz to zatrudnij kogoś i wyślij mu ten poradnik żeby wiedział co ma robić. Podsumowanie: Dodaj swoją niszę do Ahrefs Keyword Explorer'a. Przefiltruj listę fraz i znajdź słabe strony które rankują na słowa kluczowe które zawierają w sobie zamiary użytkownika [aby mieć pewność, że użytkownik przeszuka wyniki wyszukiwania] Sprawdź dokładnie wszystkie frazy na które rankuje strona. Dodaj filtry o której pisałem wyżej a znajdziesz trochę dobrych fraz. Powtórz. Pamiętajcie, że jest to poradnik skierowany do początkujących. Za wszelkie komentarze z góry dzięki! Dostęp do tego narzędzia (i dziesiątek innych przy okazji) możecie uzyskać dzięki forumowej usłudze SeoTools. Jeżeli nie wiesz co to lub jak mogłaby Ci się przydać, napisz do mnie! Link do opisu usługi zostawiam poniżej.
  2. Witam, widziałem jakiś czas temu ten poradnik, kiedy przygotował go MOZ. Był naprawdę dobrze napisany, zresztą co się dziwić, to nie pierwsi lepsi pozycjonerzy. Jedynym mankamentem było to, że był dostępny tylko w języku angielskim. Miałem się nawet podjąć próby tłumaczenia, ale okazało się, że ktoś to już zrobił za mnie (a dokładniej, sprawnymarketing.pl) Są tutaj zawarte wszystkie najważniejsze rzeczy, są one przede wszystkim aktualne i poradnik jest przeznaczony dla początkujących, ale polecam przeczytanie go każdemu! [PDF] Poradnik dla początkujących od MOZ'a [tłum. sprawnymarketing.pl]
  3. Witam, Seoway.pl wypuścił ostatnio naprawdę dobry poradnik, a raczej kompendium wiedzy o tworzeniu zaplecza w SEO. Choć zaplecze kojarzy się z long tailem, to w tym krótszym i bardziej agresywnym SEO również może okazać się bardzo przydatne, chociażby w momencie, gdy robimy osobne strony na każdą niszę. Takie zaplecze pomoże w SEO każdej z tych stron. Wszystko na temat zaplecza - poradnik od Seoway
  4. Dzisiaj podrzucam Wam co zrobić po zapełnieniu naszego bloga postawionego na Wordpressie jakimś contentem (zawartością) - musimy go zoptymalizować. W tym artykule, przygotowanym przez SeoPilot.pl, możecie poznać podstawowe metody optymalizacji tej platformy pod kątem SEO. Artykuł pochodzi z: https://www.seopilot.pl/subscribe/1.html Optymalizacja serwisów na platformie WordPress Blogi utworzone na platformie WordPress cieszą się dużą popularnością na całym świecie. Jest to spowodowane tym, że WordPress za darmo udostępnia system, który jest prosty w konfiguracji, ma wygodny interfejs, harmonijny wygląd i posiada mnóstwo przydatnych pluginów. Jednakże podczas tworzenia blogu zapomina się o tak istotnej kwestii, jaką jest przygotowanie go do wypozycjonowania w wynikach wyszukiwania Google. W konsekwencji prowadzi to do problemów z zajęciem wysokich pozycji, a tym samym, do utraty potencjalnych czytelników i nadziei na sukces w blogosferze. Aby uniknąć problemów przy pozycjonowaniu bloga, należy przeprowadzić szereg zabiegów mających na celu jego wewnętrzną optymalizację i usunięcie przeszkód, które mogą wyniknąć w rezultacie niewłaściwej pracy zainstalowanych pluginów. Przyjrzyjmy się podstawowym zasadom, których zastosowanie pomoże rozwiązać najczęstsze problemy związane z SEO dla serwisów WordPress. Określenie podstawowej wersji strony Nazwa domenowa serwisu może być zapisana na dwa sposoby: z prefiksem www i bez niego. Z punktu widzenia wyszukiwarki to dwie różne strony, która próbuje je ze sobą skleić i zostawić w wynikach tylko jedną z nich. Aby nie dopuścić w procesie pozycjonowania do automatycznego połączenia i w rezulatcie utraty linków prowadzących na jedną z nich, koniecznie należy podczas tworzenia bloga wskazać wersję domyślną i na nią ustawić przekierowanie 301 z drugiej wersji. Te wskazania zawiera się w plikach .htaccess i Robots.txt, a także w zakładce dla Webmastera Google. Optymalizacja struktury URL Dla bloga na WP, jak i dla dowolnego innego serwisu, ważnym czynnikiem na drodze do skutecznego wypozycjonowania jest struktura URL podstron. Uważa się, że wyszukiwarki, tak jak i użytkownicy, lepiej odnoszą się do zrozumiałych adresów, tzw. przyjaznych URL. WordPress domyślnie generuje nieatrakcyjne URLe, np. somesite.com/?p=123. Aby doprowadzić URLe do porządku, aby zawierały słowo kluczowe, należy w panelu admistratora w ustawieniach przejść do zakładki PERMALINKS i wybrać jeden z dwóch sposobów zmiany struktury URLi: POST NAME (tytuł posta) lub CUSTOM STRUCTURE (dowolna struktura), przy czym do tworzonych adresów nie zapomnijcie dopisać końcówkę .html, ponieważ WP nie robi tego automatycznie. Ważna uwaga: jeśli zmieniacie strukturę URL na stronach już zaindeksowanych przez wyszukiwarkę, w celu uniknięcia utraty ruchu należy pamiętać, aby ustawić przekierowanie 301 z postów o starej strukturze adresu na ten sam post pod nowym adresem. Narzędzia - plik .htaccess albo plugin Change Permalink Helper. Wykorzystanie tagów H1 i H2. Określając indywidualne szablony dla WP często pojawiają się błędy związane z użyciem znaczników nagłówków. Właściwa optymalizacja strony zakłada tylko jedno użycie nagłówka H1, który wskazuje wyszukiwarce relewantność strony dla tego czy innego zapytania. w blogach na WP często spotykany jest jeden tytułowy H1 w nagłówku strony i kolejny w tytule posta. Można to zmienić przy pomocy tagów warunkowych. Rezultatem takiego zabiegu powinna być następująca struktura: H1 w nagłówku strony tylko na stronie głównej; H1 w tytule postów na podstronach; H1 w nagłówku kategorii i znacznika w archiwum; H2 w w tytule postów w liście na wszystkich stronach blogu. Sprawdzenie szybkości ładowania się stron Niemniej istotnym czynnikiem decydującym o sukcesie serwisu jest szybkość ładowania się stron. Powolne ładowanie negatywnie wpływa na zachowanie odwiedzających stronę i tym samym na pozycję strony w rankingu Google. Skorzystajcie z ogólnodostępnych narzędzi do sprawdzania szybkości strony. Jeśli wyjdą na jaw jakieś problemy, przeanalizujcie stronę pod kątem elementów, które mogą ją spowalniać. Wykorzystanie wtyczek SEO Za podstawową wtyczkę SEO dla blogów na WP uznaje się SEO by Yoast. W jednym pakiecie otrzymujecie wszystkie niezbędne instrumenty dla optymalizacji: sterowanie indeksacją, dodanie “okruszków chleba”, mapy serwisu, zapełnianie znaczników Title, Keywords, Descriptions i inne. W celu zwiększenia tempa ładowania się stron można posłużyć się pluginem W3 Total Cache i plugin Better WordPress Minify. Stworzenie rozszerzonego snippetu Dla pozycjonujących się w Google, bardzo przydatnym narzędziem będzie wtyczka Schema Creator. Przy jego pomocy można dodać mikrodane schema.org do waszych postów, aby stworzyć rozszerzony snippet w wynikach Google. Niewątpliwie poprawi to klikalność waszego posta. Istnieje możliwość wskazania autora, rankingu, składu, towaru, wydarzenia, filmu i innych danych. Odświeżenie treści Istnienie bloga nie jest do pomyślenia bez autorskich treści. Oprócz tego publikacje powinny być tematyczne, unikalne, interesujące dla czytelników i zawierać optymalną ilość słów kluczowych. Pamiętajcie także, że ważną rolę odgrywa regularne uaktualnianie treści. Nie należy zapominać o formatowaniu: akapity, podtytuły, grafika, pozytywnie wpływają na lepszy odbiór tekstu i pozytywnie wpływają na SEO. Optymalizacja grafiki Wyszukiwarki indeksują cały content blogu, w tym grafikę i biorą ich pod uwagę w tworzeniu wyników wyszukiwania. W żadnym wypadku nie należy ignorować optymalizacji obrazów. W edytorze grafiki WP pozwala dodać tytuł, alt, podpis i opis. Wykorzystajcie to! Podłączenie instrumentów analitycznych Analityka to nieodłączna część pozycjonowania. Bez badania danych będziecie działać tak naprawdę na ślepo, nie posiadając możliwości efektywnego kierowania kampanią reklamową. W sieci jest wiele narzędzi analitycznych, pozwalających zbierać informacje o ilości odwiedzających, ich zachowaniu na stronie, źródłach ruchu, frazach kluczowych, z których przechodzą użytkownicy na wasze serwisy, i innych niemniej ważnych czynnikach. Niewątpliwie najbardziej popularnym z nich jest Google Analitycs. Integracja z sieciami społecznościowymi Obecnie nie można przedocenić roli sygnałów socjalnych w sferze SEO. Wyszukiwarki biorą pod uwagę przeróżne formy aktywności Internautów w serwisach społecznościowych (udostępnienia, polubienia i inne), co wpływa na wyniki. Jeśli do tej pory nie ustanowiliście panelu socjalnego na waszym blogu, nie zwlekajcie. Oprócz pozytywnego wpływu na proces pozycjonowania, ten instrument zapewni wam również dodatkowy ruch. Sprawdzenie pracy blogu po aktualizacji schematów i wtyczek Nie zależnie od tego, że platforma WordPress jest względnie solidna i stabilna, mogą się jednak zdażyć chwilowe problemy w pracy pluginów i schematów. Obowiązkowo należy sprawdzić ich działanie po zainstalowaniu, czy nie powodują błędów i konfliktów. Czy ważne są tagi przypisane we właściwościach zdjęcia? Czy tam też umieszczać frazy kluczowe? Tak, lecz nie należy przesadzać ze słowami kluczowymi, przede wszystkim opis w atrybucie ALT i Title powienien dawać więcej informacji o grafice, i powienien być z nią powiązany. Należy także pamiętać o nazwie pliku graficznego, on też powinien oddawać sens grafiki. Pamiętajmy, że roboty nie rozpoznają grafiki i identyfikują ją przede wszystkim po nazwie pliku oraz opisach w alt i title. Czym dokładniej opisana grafika, tym lepiej i szybciej zostanie ona zaindeksowana i wyświetlana dla określonych zapytań.
  5. Bez dłuższych wstępów - poniżej znajdziecie listę czynników, na które warto zwrócić uwagę w 2018 roku podczas optymalizacji oraz pozycjonowania swojej strony WWW. 1. Mobile First Index Jak wspominałem już w dziale Newsy SEO, Google powoli wdraża aktualizację, która faworyzować będzie strony przystosowane do urządzeń mobilnych. Dlatego zoptymalizuj swoją stronę pod te właśnie urządzenia. 2. Certyfikat SSL Temat również opisywany w Newsach SEO - Google Chrome ostrzega teraz użytkowników o stronach, które nie posiadają certyfikatu SSL. Dodatkowo, Google lubi strony, które korzystają z protokołu HTTPS. 3. AMP czyli Accelerate Mobile Pages Jako uzupełnienie do optymalizacji swojej strony pod kątem urządzeń mobilnych polecam skorzystanie z AMP, który zdecydowanie przyspieszy ładowanie Twojej strony oraz zmniejszy współczynnik odrzuceń. 4. Rich Results Warto już teraz zainteresować się zwiększeniem swojej obecności w wynikach wyszukiwania z pomocą Rich Results. 5. Wyszukiwanie głosowe Wraz ze wzrostem popularności urządzeń mobilnych wzrasta również zainteresowanie funkcją Voice Search, dlatego warto zoptymalizować swoją stronę pod kątem długich zapytań głosowych, które w większości przypadków są bardziej precyzyjne od tradycyjnych zapytań. 6. Pozycjonowanie lokalne Skup się na frazach lokalnych, dodaj swoją wizytówkę do map Google oraz prowadź swój profil rzetelnie i regularnie. 7. Grafika i filmy Prostym sposobem na zwiększenie zaangażowania użytkowników jest dodawanie infografik, obrazków, wykresów, filmów i innych mediów. Jest to również idealna metoda na zdobycie dodatkowych linków. 8. UX czyli doświadczenia użytkowników mają znaczenie Niektóre elementy Twojej strony mogą mieć większe znaczenie przy wpływaniu na doświadczenia użytkowników, dlatego postaraj się je dopracować. Pomoże to zwiększyć CTR oraz czas przebywania użytkowników na Twojej witrynie - najlepiej jest zacząć od przyspieszenia ładowania strony 9. Dane strukturalne Pomóż algorytmowi Google lepiej zrozumieć co znajduje się na Twojej stronie. Możesz to zrobić oznaczając swoje treści danymi strukturalnymi. 10. Rank Brain Monitoruj działania swoich użytkowników i dopasuj treści pod te działania. Pomoże Ci to zaprzyjaźnić się z algorytmem RankBrain. Do tego polecam serwis CrazyEgg dostępny w wersji Premium w naszym forumowym SeoTools: 11. Budowanie autorytetu Zainwestuj czas (i pieniądze) w content marketing oraz utworzenie strategii contentowej. Pomoże Ci to zbudować autorytet w swojej niszy oraz zwiększy to Twoją widoczność w wyszukiwarce. Tutaj polecam zainteresowanie się serwisami WhitePress oraz BrandBuddies: 12. Wzmianki o firmie lub marce Już jakiś czas temu potwierdziły się przypuszczenia, że wzmianki o danej marce lub firmie mają znaczenie w przypadku wyszukiwarki Bing, dlatego nie zaszkodzi zainteresować się tymi wzmiankami również w przypadku Google.
  6. Witajcie! Nie znalazłem tutaj niczego takiego podobnego. Wiem, że większość z Was lata na grach, hackach i się możecie wkurzać jak dostaniecie zgłoszenie DMCA i pyk, nie ma Was we wszechwiedzącym Gógle. Co robić? Panika? Strach? Nie ma jak zapłacić za prąd? Już chcesz uciekać do Syrii, ale kiedy widzisz ten temat...zostajesz w Polsce. Pewnie ani ja tego nie odkryłem, ani ja tego pierwszy nie stestowałem, ale mam dla Was poradnik jak sobie pomóc kiedy dopadnie Was wyżej wymieniony przykład. Poradnik jest..krótki, po prostu. Start poradnika Skopiuj swój cały post gdzie dostałeś zgłoszenie DMCA. Ładnie cały, można też duplicować przy użyciu wtyczki. Usuń post gdzie dostałeś zgłoszenie DMCA. Całkowicie, a nie, że będziesz go odpubliczniać (rajza słowotwórca). Po usunięciu wrzuć link, który prowadził do niego do google submit. Stwórz nowy post (normalnie na tej samej domenie) wklejając treść jak leci, którą wcześniej skopiowałeś. Zmień title np coś do niego dopisując, to samo tyczy się URLa. Wrzuć potem link do google submit. Upublicznij post. Wejdź na direct admin swojego hostingu i ze starego postu zrób przekierowanie 301 na ten nowy post. Kup sobie gazetę, nawet kilka gazet. Czekaj. U mnie trwało to dokładnie 3 dni. Efekt końcowy Podsumowanie: Google jest głupsze niż niektórzy z Was myślą PS. U mnie wyszło, to był mój pierwszy DMCA od x czasu. Nie wiem czy u Was zadziała, ale może lepiej przetestować? Koniec poradnika #EDIT Wszystkie kw wróciły na swoje miejsce po DMCA, ten trzeci to huśtawka
  7. Witajcie, otrzymałem informacje od seostation na email więc po prostu nią się tutaj podzielę. Mam nadzieję, że to jest okej O metodzie pozyskiwania linków z profili na forach oraz portalach użytkowych zrobiło się głośno już w 2013 roku, kiedy to Google zaczęło baczniej przyglądać się profilom linkowym pozycjonowanych stron i odpowiednio karać te, które nadużywały automatycznych i oczywiście niezgodnych z wytycznymi metod podnoszenia pozycji. Właśnie wtedy narodził się pomysł (a raczej potrzeba zmian) w stylu pozyskiwania linków. Idealnym podłożem testowym okazały się forumowe profile, które pozwalały na zdobywanie linków ze stron z wieloletnim stażem. Dziś postaramy się przedstawić wszystkie plusy płynące z linków profilowych na domenę linkowaną oraz pokażemy przykład, jak zakładać profile, aby dawały jak najwięcej korzyści. Korzyści z zakładania profili Dywersyfikacja linków - wiele stron bazuje tylko na jednym typie linków. Google zaczęło bacznie przyglądać się linkom prowadzącym do witryn pozycjonowanych, co zmusiło pozycjonerów do wytężenia umysłów i znalezienia nowych miejsc, które pozwolą na zdobywanie linków. Profile wydają się być idealnym sposobem na zróżnicowanie linków - linki zdobywane są na różnych portalach (często na unikalnych skryptach). Nie ma także żadnego szablonu dodawania linków lub ich osadzania - fora i portale użytkowe pozwalające na rejestrację konta często przyjmują zróżnicowane skrypty, co działa na naszą korzyść. Czym mniej schematów pozyskiwania linków - tym mniejsze ryzyko namierzenia takiego linku przez SQT Google. W dobie Pingwina to atut wart pierwszego miejsca. Niska cena - nie każda kampania SEO cechuje się ogromnym budżetem, który nie ogranicza działań. Owszem, możemy ciągle kupować artykuły sponsorowane i wydawać grube sumy na bannery lub AdWords. Jednak profile pokazują, jak znacznie taniej i o wiele efektywniej wypromować stronę. Założenie profilu nie wymaga opłat SMS - dostęp jest darmowy. To samo tyczy się prowadzenia profilu - po prostu rejestrujemy użytkownika na forum, wypełniamy profil i uczestniczymy w dyskusjach. Nikt nam za to nie wystawi faktury. Profile to obecnie jeden z najtańszych sposobów linkowania stron. Jedynym kosztem jest czas pracy, jaki musimy poświęcić na założenie, skonfigurowanie i późniejsze prowadzenie profilu. Naturalne linkowanie - sedno programu, czyli linkowanie. Profile użytkowników dzielą się na dwa typy - na te, które posiadają specjalny formularz dodania adresów stron (pod postacią URL oraz na takie, które mogą linkować do strony z sygnaturki lub opisu O mnie/Zainteresowania. Sam link dodany w profilu to nie koniec. Aby profil miał wartość, warto wykonać kilka typowych dla użytkowników ruchów i akcji potwierdzających aktywność profilu. W przypadku forów będzie to kilka postów w prowadzonych dyskusjach. Taki profil wówczas zyska linki wewnętrzne (zostanie podlinkowany przez serwis), szybciej znajdzie się w indeksie Google i będzie wiarygodny dla administratorów forów (niestety, administratorzy często kasują profile martwe, czyli bez postów i żadnej aktywności). Łatwy dostęp do stron wysokiej jakości - chcąc prowadzić kampanię SEO z duchem czasu, trzeba szukać nowych miejsc, które nie są nastawione na przekazanie mocy linkowej tylko do następnego filtra. Solidnych forów i portali użytkowych jest obecnie znacznie więcej, co stwarza perspektywy na linkowanie dowolnej strony - zarówno z profili PL, jak i ENG (lub z inną geolokalizacją). Zakładanie profili - jak to wygląda? Poniżej krótki poradnik przedstawiający przykładowe założenie i wypełnienie profilu. Krok 1 - wybieramy forum/stronę, która pozwala na założenie konta użytkownika. My wybierzemy polskie, znane forum.dobreprogramy.pl. Klikamy rejestrację. Krok 2 - wypełniamy dane, podając nick, hasło i adres e-mail. Na podany mail zostanie wysłana informacja z linkiem aktywującym profil oraz hasłem. Krok 3 - logujemy się do serwisu, wpisując uzyskane hasło oraz podany nick/e-mail. W prawym górnym rogu klikamy w nick i przykładowo na skrypcie IPB z menu wybieramy Ustawienia. Krok 4 - znajdujemy się w miejscu, gdzie możemy ustawić avatar, wpisać wszystkie dane profilowe, ustawić adres strony. Polecamy wypełnienie wszystkich pól - to zwiększa wiarygodność profilu. Należy pamiętać, że opisy lub wpisane dane nie powinny być identyczne na zakładanych profilach. To wymóg, aby algorytm nie namierzył naszych profili i nie powiązał ich z linkowaną stroną. Krok 5 - klikamy podgląd stworzonego profilu i sprawdzamy, czy dodane linki wyświetlają się poprawnie. Tak oto wygląda procedura zakładania profili. Teraz wystarczy udzielać się na forum, aby podlinkować wewnętrznie profil i zyskać zaufanie w oczach moderatorów. Podsumowanie Poprawnie założony i prowadzony profil może mieć znacznie większą wartość linkową dla strony, niż niejeden płatny link. Niska cena, wysoka jakość linków i wyższe pozycje - to zapewniają poprawie założone i prowadzone profile. Zauważyłem, ze wpis został stworzony przez sklep, który oferuje swoje usługi tutaj na forum, tutaj link do ich tematu.
  8. Moja wiedza z SEO jest na żenującym wręcz poziomie ale zauważyłem, że teraz jest to po prost fundament zarabiania w sieci. Opłaca się kupować jakieś kursy SEO, naprawdę one potrafią pomóc i zmienić sposób myślenia czy to po prostu sposób wyciągania pieniędzy za rzeczy które są przecież "oczywiste" lecz nie każdy patrzy na to pod takim kątem? Kupiliście jakieś kursy SEO lub książki, warto czy lepiej używać ogólnodostępnych źródeł informacji?
  9. Witam, widziałem temat, gdzie trwała dyskusja, co stało się ze stronami użytkowników. Otóż, na 99% (jeśli w GWT nic się nie dzieje) to filtr algorytmiczny. Gdy zaobserwowaliśmy gwałtowny spadek pozycji pod jakąkolwiek frazą i dłuższy niż kilka dni brak powrotu do stanu poprzedniego świadczyć to może o nałożeniu na naszą stronę internetową właśnie takiego filtra. Ponadto, aby upewnić się, możemy posłużyć się tą stroną: http://algoroo.com/ Sprawdza ona zawirowania w pozycjach tysięcy keywordów. Czym ich więcej, tym słupek jest wyższy. Jeśli jest czerwony, bardzo prawdopodobne, że google zmieniło coś w algorytmie, co wpłynęło na wiele stron. Jak się za problem zabrać? Rozpoczynamy zabawę analogicznie jak w przypadku filtra ręcznego, czyli wysyłamy do Google opisaną w poprzednim poście prośbę o ponowne rozpatrzenie. Dzięki temu upewniamy się, czy czasem filtr nie został nałożony ręcznie. Jeśli otrzymamy informację, że filtr ręczny nie został nałożony, to nie ma potrzeby wysyłania kolejnych pytań, gdyż Google nie informuje o tym, że nałożony został filtr algorytmiczny. Jest to o tyle istotna różnica, że w momencie odpowiedniego poprawienia strony/linkowania przy filtrze ręcznym dostaniemy informację, że już jest ok. W przypadku filtra algorytmicznego Google nam nie podpowie i jedynym wyznacznikiem poprawności naszych działań będzie „tryumfalny” marsz naszej strony ku wysokim pozycjom. Dlatego też przez cały czas prowadzenia „działań naprawczych” musimy monitorować pozycje naszej strony pod interesującymi nas frazami. Linkowanie jest najczęstszą przyczyną W lwiej części przypadków nałożenia filtra algorytmicznego winne jest linkowanie. Zanim jednak zabierzemy się za linki warto sprawdzić, czy strona spełnia wytyczne dla webmasterów. Nie ma sensu grzebać w tysiącach linków, jeśli strona ma skopiowaną treść, zainstalowane „złośliwe oprogramowanie” itp. Gdy upewnimy się, że nasza strona spełnia wytyczne, zaczynamy tango z linkami. Na początku sprawdzamy pod jakimi frazami nasza domena może mieć ewentualnie nałożone filtry. Wstawiamy ją do narzędzia analizującego (np. Ahrefs) i widzimy na jakie anchory była/jest linkowana oraz na jaki adres (filtr nie musi być nałożony na stronę główną, mogły „dostać” podstrony). Sprawdzamy je po kolei wstawiając w wyszukiwarce Google kombinację adres url+fraza. Jeśli w którymś przypadku nie wyskoczy nam wpisywany adres na pierwszym miejscu, to znak, że złapaliśmy filtr pod tym adresem - Czy jeśli w danych konfiguracjach moja strona wyskakuje na pierwszej pozycji to znaczy że nie ma filtra? - Nawet jeśli Twoja strona pojawi się na pierwszej pozycji nie daje Ci to pewności że strona filtra algorytmicznego nie ma. Jest to jeden ze sposobów sprawdzania filtra, natmiast nigdy nie będziesz miał pewności że że domena jest odfiltrowana jako że google nie udostępnia takich informacji Znając już zafiltrowane frazy staramy się usunąć jak najwięcej śmieciowych linków z tymi anchorami. Te śmieciowe linki, których nie udało nam się usunąć (zazwyczaj większość) wrzucamy do Disavow Tool i zrzekamy się ich. Czasami samo usunięcie kiepskiego linkowania wystarcza. Czasami… Zazwyczaj trzeba podjąć kolejny krok, czyli „podrasować” linkowanie zafiltrowanych anchorów. Służą do tego oczywiście mocne linki z wysokim TrustRankiem. Podczas tych działań pozycje strony należy nieustannie monitorować, gdyż często filtr puści na kilka dni, a potem znowu złapie. Mocne linkowanie należy prowadzić dotąd, aż strona na dobre się nie ustabilizuje. Czas, po którym dobre linkowanie przeważy jest różny. Zależy, tak jak przy pozycjonowaniu od wielu czynników: jakość linków, ilość linków, zróżnicowanie skryptów, Ranki domeny, treść domeny itd… Ze zdejmowaniem filtrów jest jak z pozycjonowaniem. Po pewnym czasie zdobyte doświadczenie sprawia, że zaczynamy „wyczuwać” powody ich nałożenia. Osławione Pandę i Pingwina można wychwycić gołym okiem. Najgorzej jest kiedy filtry algorytmiczne się skumulują, bo często zdejmowanie jednego sprawia, że niechcący wzmacniamy inny. Zawsze jednak należy pamiętać o złotej zasadzie. Bez dokładnej analizy stracimy jedynie czas i energię. Wielu „specjalistów” wali linkami TR bez ładu i składu wychodząc z założenia, że z takiej masy coś musi trafić na odpowiednie anchory i przeważyć. Według mnie to zwykłe marnowanie czasu i potencjału, ale decyzja należy już do Was. część artykułu pochodzi z: stylem.pl A jak z problemem walczyć? Zapraszam do poradnika
  10. Od dłuższego czasu branża SEO upatruje w Social Media wsparcia dla promowania witryn internetowych w Google. Wiele serwisów wymieniało jako czynniki rankingowe Facebooka, Twittera czy Google+. Jednak podczas hangoutu z użytkownikami, John Mueller wyraźnie podkreślił: "Social Media nie wpływają bezpośrednio na ranking". Jeśli zatem "nie bezpośrednio", to czy nie wpływają w ogóle? Mueller w rozwinięciu swojej wypowiedzi zaznaczył, że obecność w mediach społecznościowych nie jest bez znaczenia i choć umieszczane w nich linki mają charakter no follow, to już treść wpisów może przynieść marce wiele dobrego. Unikalny i wartościowy content postów sprawia, że często trafiają one do SERP, a tym samym mogą przyciągnąć uwagę użytkowników wyszukiwarki. Choć aktywność w mediach społecznościowych nie spowoduje wzrostu pozycji samej strony, z pewnością stanie się sygnałem dla potencjalnych Klientów danej firmy i może pomóc w rozpoznawalności marki. Dlatego też social media nie powinny być postrzegane jako jeden z czynników wpływających na ranking, ale jako alternatywna metoda promocji i reklamy firmy czy produktu. Z całą pewnością przyniesie to korzyści zarówno samej marce, jak i użytkownikom wyszukującym informacje na jej temat czy też zainteresowanych świadczonymi przez daną firmę usługami. Warto zatem zapamiętać, że dzisiaj nie liczą się już wyłącznie pozycje w Google, ale ważne jest także szersze spojrzenie na obecność w sieci - także tej społecznościowej. Informacja o Social Signals zaczyna się w 19:52. źródło: seostation.pl, seroundtable.com Co Wy uważacie na ten temat? Pomagają Wam sygnały z social media czy pic na wodę? Napisz o tym!
  11. Od 1-ego listopada zmienią się zasady dotyczące stron stworzonych z myślą o urządzeniach przenośnych. Jeśli Wasza witryna wyświetla okienko instalacyjne, które przesłania większość treści w serwisie, może spaść w mobilnych wynikach wyszukiwania. O planowanych zmianach Google poinformowało i wytłumaczyło je troską o komfort korzystania ze stron przez użytkowników. Trzeba przyznać, że dla odwiedzających witrynę taki wyskakujący baner może być irytujący, nie pozwala bowiem na szybkie zapoznanie się z treścią serwisu. Do listopada pozostało jeszcze sporo czasu, zatem wszyscy właściciele witryn, które naruszają powyższe wytyczne, mają czas na wprowadzenie zmian. Warto je wdrożyć, ponieważ w przeciwnym razie serwis przestanie być uznawany za "mobile friendly", a tym samym straci na pozycjach w mobilnych SERP. Jak zatem nie rezygnować z promowania aplikacji, a jednocześnie nie naruszać wytycznych Google? Rozwiązaniem mogą być banery instalacji aplikacji, takie jak choćby Native App Install Banners (dla przeglądarki Chrome). Zapewnią one widoczność "apki" na promocji której nam zależy, jednocześnie nie przesłaniając treści prezentowanych na stronie. Można też oczywiście wykorzystać własne rozwiązania, mając jednak na uwadze nowe wymagania Google. źródło: https://www.seroundtable.com/google-app-interstitials-penalty-20845.html, seostation.pl
  12. Gary Illyes z Google poinformował na Twitterze, że choć przy ustalaniu rankingu stron mobilnych wyszukiwarka kieruje się w dużej mierze czynnikami związanymi z wersjami desktopowymi, to przy znaczącej różnicy w obu wersjach, strona mobilna może zostać wzięta pod lupę. Co to oznacza? Jeśli serwis prezentuje rażąco odmienne treści od tych, które przedstawia w swojej wersji dla urządzeń przenośnych, może zostać oflagowany i przekazany do ręcznego sprawdzenia. Takie działania mają zmniejszyć ryzyko wyświetlania spamu w Google dla wersji mobilnych. Oczywiście trudno ocenić, co Illyes miał na myśli mówiąc o "znaczących różnicach" pomiędzy wersjami desktop a mobile, warto jednak wziąć to ostrzeżenie pod uwagę i przyjrzeć się własnym stronom dedykowanym dla urządzeń przenośnych. W przypadku dużych różnic w prezentowanej treści, dobrze byłoby zadbać o ich zniwelowanie - tak, by nie ryzykować posądzeń o wprowadzanie użytkowników w błąd, a tym samym ewentualnej kary nałożonej przez Google. źródło: https://www.seroundtable.com/google-mobile-desktop-difference-20662.html, seostation.pl
  13. Jak donosi Google, w życie wejdzie już wkrótce nowy sposób prezentowania wyników wyszukiwania na komórkach. Zniknąć mają adresy url, zastąpione przez nazwę strony i nawigację witryny (o ile będzie dostępna). Zdaniem Google, taki sposób prezentowania treści w wynikach wyszukiwania dla telefonów komórkowych, będzie bardziej przyjazny dla użytkowników i ułatwi odnalezienie wartościowych i poszukiwanych przez nich informacji. Upewnijcie się, że korzystacie z tak zwanych Breadcrumbs na swoich stronach! źródło: http://googlewebmastercentral.blogspot.com/2015/04/better-presentation-of-urls-in-search.html
  14. W hangoucie na Google+, który odbył się 10 marca 2015 r., padło kilka ciekawych stwierdzeń, które krótko opisano w punktach poniżej: Panda nie jest jeszcze aktualizowana cyklicznie z taką częstotliwością, jaką dawniej zapowiadano - była mowa o aktualizacjach comiesięcznych, jednak kilka osób z branży zwróciło podczas spotkania uwagę na to, że od października 2014 r. nie zauważyli kolejnych zmian. John Mueller potwierdził, że faktycznie ostatnia Panda mogła mieć miejsce tak dawno temu; Pingwin nie jest jeszcze aktualizowany cyklicznie - w momencie wdrażania ostatniej aktualizacji Pingwina otrzymaliśmy informację o tym, że po 1. wdrożenie to miało być rozłożone na dłuższy okres niż dotychczas (potwierdziły to obserwacje zmian w pozycjach, w szczególności dla stron dotkniętych wcześniejszymi aktualizacjami), a po 2. od tej pory kolejne aktualizacje mają być wypuszczane częściej, niż dotychczas. W tym przypadku John również sprostował, że jeszcze nie udało im się doprowadzić do cyklicznego uruchamiania Pingwina, aczkolwiek będą się starali to wprowadzić; Dokument dotyczący KBT (Knowledge-Based Trust) to jedynie praca badawcza - po tym, jak branża zaczęła dzielić się linkiem do wspomnianego dokumentu, szybko zaczęto pisać o tym, że Google planuje zrezygnować lub zminimalizować wpływ linków na ranking i że planowana jest zmiana algorytmu. Nic bardziej mylnego - te informacje to jedynie błędna interpretacja informacji otrzymywanych z różnych źródeł. W samym dokumencie nie było informacji na temat tego, czy opisuje on planowane do wprowadzenia zmiany. John Mueller potwierdził, że to jedynie praca badawcza, a więc szczegółowo opisana koncepcja, a nie opis działającego lub planowanego do wprowadzenia algorytmu; Aktualnie wyniki mobilne nieznacznie różnią się od tych widocznych na komputerze - zgodnie z uzyskanymi informacjami (oraz własnymi obserwacjami), aktualnie większość wyników prezentuje się tak samo niezależnie od urządzenia, na jakim są one wyświetlane. Nie dotyczy to oczywiście dodatkowych oznaczeń (np. "Na komórki"), a jedynie kolejności wyników. John poinformował, że dopiero po wprowadzeniu zmian planowanych na kwiecień będzie można zauważyć większe rozbieżności w wynikach. Jednak w tej chwili jest tylko kilka czynników, które wpływają (nieznacznie, ale jednak) na wyniki mobilne, a są to m.in.: tzw. faulty redirect, czyli błędne przekierowania polegające na odsyłaniu użytkowników mobilnych zawsze do strony głównej zamiast do wyszukanej podstrony, bądź też korzystanie z Flasha. Żródło: seostation.pl
  15. Jak co roku, SearchEngineLand wypuścił listę czynników rankingowych, tym razem tych z 2014 roku. Czynniki rankingowe to coś, co tygryski (vel pozycjonerzy) lubią najbardziej. Są to czynniki, które wpływają na naszą pozycję w Google. Przeanalizowano 10000 keywordów (prawdopodobnie z google.us). Wzięto najlepsze 30 wyników i porównano je pod względem niżej wymienionych czynników. Następnie podciągnięto to do średniej. Wszystko widnieje na wykresie współczynnika korelacji rang Spearmana. Należy pamiętać, że czynniki rankingowe to tylko analiza, na pewno nie pokrywa się idealnie z rzeczywistością. I tak: czynniki > 0 sugerują, najprościej mówiąc, że dzięki nim nasza pozycja wzrasta czynniki = 0 nie zmieniają naszej pozycji czynniki < 0 nasza pozycja spada Oczywiście nie jest tak, że po jednym czynniku ujemnym nasza pozycja spadnie, o nie. Albo odwrotnie, wskoczymy wyżej stosując jeden czynnik. Trzeba pamiętać, że tylko dobre zastosowanie wszystkich czynników i odpowiednie ich pomieszanie, tak, by wyglądało to jak najnaturalniej da efekty. Wnioski pozostawiam do dyskusji Źródło: http://searchengineland.com/searchmetrics-released-seo-ranking-factors-2014-content-now-really-king-202756
  16. Witajcie, Dostałem ciekawy mailing od seopilot.pl, więc stwierdziłem, że się nim z Wami podzielę, bo wiele osób tworzy tutaj landing page i chce je pozycjonować Serwisy złożone z jednej podstrony w ostatnim czasie przeżywają swoją “drugą młodość”. jest to widoczne zwłaszcza w przypadku rynków zachodnich, aczkolwiek ten trend dociera również do Polski. W przeszłości kojarzyły się one z prostym designem i niezbyt wysoką jakością treści. Obecnie zamieniają je witryny z interaktywnymi elementami, modną grafiką i efektami. W takiej wersji podobne strony internetowe są bardzo popularne wśród Internautów, a współczesne technologie CMS pozwalają dostosować “jednostroniczki” do wymagań SEO. Przede wszystkim: interaktywność! Klasyczne serwisy jednostronowe są złożone z statycznej strony, posiadającej blok treści (contentu) oraz jednej lub kilku przycisków, zachęcających do działania (Call-to-Action), do których może być dołączony formularz rejestracyjny z odpowiednimi polami. Tego rodzaju wzorzec witryn we współczesnym Internecie jest coraz rzadziej spotykany, ponieważ jednostronicowa architektura nie pozwala na wykonanie solidnej i dokładnej optymalizacji strony. Ten fakt sprawia, że jej wypozycjonowanie do TOP wyszukiwarek jest praktycznie niemożliwe. Oczywiście, w tej zasadzie są pewne wyjątki: dotyczy to “stron - kamikadze”, tworzonych wyłąсznie w celu uzyskania czasowego efektu. Część pozycjonerów wykorzystuje takie strony dla uzyskania szybkiego efektu dla fraz wysokonkurencyjnych, bądź też dla stworzenia sieci “doorway pages”. Taktyka ta, o ile zastosować ją umiejętnie, może być skuteczna, jednakże należy pamiętać, że przy zastosowaniu takiego rozwiązania w żadnym wypadku nie może być pozycjonowana domena, która przedstawia dla Was jakąś wartość. Podobne witryny znajdują również zastosowanie jako “landing pages” dla kampanii reklamowy kontekstowej lub innej, chociaż w tym wypadku częściej stosowane jest tworzenie niewielkiej, ale jednak kilkustronicowej wersji swojego serwisu. Na szczęście, webmastering cały czas się rozwija, i współczesne możliwości projektowania stron internetowych pozwalają wzbogacić jednostronowe witryny o szereg nowych, często zaskakujących, funkcji. Na przykład, wykorzystanie technologii AJAX całkowicie przeistacza serwis, umożliwiając tworzenie efektów scrollingu (infinite scrolling, parallax scrolling), rozdzielając jednostronicową architekturę na oddzielne bloki, co czyni stronę dynamiczną i wyrazistą. W ten sposób prosty serwis może przeistoczyć się w interesującą aplikację (przystosowaną również dla urządzeń mobilnych), które jest w stanie na dłuższy czas przyciągnąć uwagę użytkownika. Przykładów podobnych, modnych web - aplikacji można podać wiele: makeyourmoneymatter.org, mypizzaoven.nl, axara.com/en/. Niestety, z punktu widzenie SEO podobne serwisy są nieefektywne i mogą służyć co najwyżej jako landing pages. Rzecz w tym, że technologia AJAX, wykorzystywana w tym wypadku dla ładowania treści, utrudnia indeksację serwisu przez roboty, w tym także przez roboty Google. Wszelako istnieje mechanizm, pozwalający jednostronowym witrynom wykorzystywać zalety skryptów i przy tym pozostawiać dostęp dla robotów wyszukiwarek. Zastanówmy się teraz, jak tego dokonać. SEO - friendly Metodę optymalizacji seo serwisu jednostronicowego utworzonego na JavaScript zaproponował sam Google. Na czym polegają jego rekomendacje? Jeśli rzecz wyłożyć krótko, należy rozbić stronę na bloki i dla każdego ustalić URL i nagłówek. To pozwoli stworzyć wrażenie wielostronicowości dla robota, podczas gdy Internauta będzie po prostu przeglądać stronę z efektem scrollingu. 1. Grupowanie treści w blokach Konieczne jest podzielenie kontentu strony na logiczne bloki (“o nas”, “cennik”, “oferta” itp.). Każdy blok powinien zawierać pewną ilość użytecznej treści: teksty zawierające słowa kluczowe, grafikę i nagłówek pierwszego poziomu H1 - jest to jedyny przypadek, gdy na jednej podstronie można wykorzystywać kilkukrotnie nagłówek pierwszego poziomu. 2. Kształtowanie struktury URL Dla każdego z bloków należy utworzyć odrębny adres URL. Adresy należy zoptymalizować w taki sposób, aby roboty wyszukiwarki mogły bez problemów zaindeksować zawartość całej strony utworzonej przy wykorzystaniu technologii AJAX. Dla uzyskania tego efektu można zastosować dwa rozwiązania: wykorzystanie w URL symbolu #! (wydaje to robotowi wskazówkę, aby zażądał wersji serwisu w html i rozmieszczenie bezpośrednio samej treści html na URL, gdzie symbol #! jest zamieniany na wyrażenie ?_escaped_fragment_=. Szczegóły na ten temat możecie znaleść w dokumentach Google. Metoda ta wszelako ma pewne wady: robot nie zobaczy prawidłowych danych behawioralnych, gdyż z technicznego punktu widzenia treść dla robotów i treść dla użytkowników jest wyświetlana w inny sposób. stworzenie struktury pełnych adresów URL (bez znaku #) za pomocą metody history.pushState. To pozwoli na generowanie bardziej przyjaznych linków dla poszczególnych bloków i na rezygnację ze struktury “z kratkami”. Obejrzyjcie przykład witryny: w trakcie scrollingu (przewijania) URL-e bloków zmieniają się dynamicznie w polu adresowym przeglądarki. Metoda pushState jest wykorzystywana przez sieci społecznościowe, na przykład przy tworzeniu osi czasu w Facebooku. Należy podkreślić, że ten wariant strukturyzacji URLi jest preferowany z punktu widzenia Google i działa prawidłowo we wszystkich innych wyszukiwarkach. W tym momencie trzeba dodać, że optymalizacja “jednostroniczki” za pomocą odpowiedniego formatowania metodą PushState wymaga wysokich kwalifikacji wykonawcy. Jest to skomplikowane zadanie, w którym należy prawidłowo zorganizować statyczne podstrony i ustalić dla nich wymagane elementy nawigacji (menu, wewnętrzne linkowanie), aby efekt faktycznie działał na plus dla SEO, a nie na odwrót. Takie działania wymagają sporych nakładów, także finansowych, i powierzyć je można wyłącznie doświadczonemu specjaliście. Z tego powodu przykładów podobnych witryn w polskim segmencie Internetu nie ma zbyt wiele, łatwiej znaleść przykłady serwisów anglojęzycznych - na przykład flowerbeauty.com i collectif-yay.com. Najczęściej spotykane rozwiązanie w organizacji bloków - to oznaczenielinku za pomocą hash-tagu #. Nie można powiedzieć, że jest to błąd, jednakże z punktu widzenia SEO taki wariant jest nieskuteczny: robot wyszukiwarki zaindeksuje tylko tę treść, która znajduje się w URL do znaku #, a tego, co jest dalej - nie zobaczy. 3. Uzupełnienie meta-tagów Co logiczne, każdy blok, określony jako osobna podstrona, powienien mieć unikalny tag Title, który będzie dynamicznie ładować się w miarę przewijania strony. Gdy wasza “jednostronnicówka” będzie już gotowa do rozpoczęcia działań marketingowych, można rozpocząć proces budowy zaplecza linkowego tak, jak dla zwykłego serwisu, a jednocześnie przyciągać także wartościowy traffic za pomocą innych dostępnych kanałów. Pewną specyfiką tego typu witryn jest to, że przy ich pozycjonowaniu nowe frazy kluczowe należy uruchamiać nieco wolniej i ostrożniej, niż w przypadku innych serwisów. Dlatego w pierwszym okresie działania serwisu warto zadbać także o odpowiednią reklamę kontekstową. Podsumowanie Interaktywny serwis złożony z jednej strony - to dobry sposób na przyciągnięcie uwagi swojej grupy docelowej i korzystne zaprezentowanie się na tle konkurentów. Jednakże stworzenie rzeczywiście jakościowej, dynamicznej platformy, która jednocześnie byłaby przyjazna dla SEO - to zadanie o wysokim stopniu trudności i dużych kosztach. Z tego powodu, zanim podejmiecie decyzję i zaczniecie pisać zadanie techniczne dla swoich pracowników, zastanów się: być może, w Twojej branży, lub w Twoim specyficznym przypadku statyczny, wielostronnicowy serwis będzie optymalnym rozwiązaniem.
  17. Witam, dzisiaj dostałem newsletter od seopilot.pl. A dokładniej dostałem SeoKurier, gdzie dostarczane są przeróżne informacje, rady i poradniki odnośnie pozycjonowania. Tym razem tekst dotyczy pozycjonowania nowo powstałych stron, więc pomyślałem, że może to się przydać wielu z Was, ponieważ jak wiadomo w PPA/CPA i pochodnych, po zrobieniu strony od razu przechodzimy do jej promowania. Jak obliczyć wiek witryny? Wiek witryny jest ważnym czynnikiem wpływającym na jej pozycjonowanie. Należy od razu zwrócić uwagę, że wiek to nie tyle data rejestracji domeny, ile pierwsze zaindeksowanie treści serwisu o aktualnej tematyce przez docelową wyszukiwarkę. Właśnie od momentu uruchomienia obecnego serwisu (przynajmniej w wersji testowej) należy obliczać jego wiek. Im “doroślejszy” serwis, tym większy poziom zaufania przypiszą mu algorytmy wyszukiwarek. Dla młodych serwisów należy przyjąć odpowiednią strategię pozycjonowania. Nawiasem mówiąc, jeśli konieczne jest dotarcie do TOPu w krótkim okresie czasu z trudnymi frazami kluczowymi, warto rozważyć wykupienie starej domeny obecnego w wyszukiwarce od dłuższego czasu (uprzednio upewniwszy się, że nie jest on obłożony żadnymi sankcjami). Dlaczego wyszukiwarki nie dowierzają młodym serwisom? Zwracanie uwagi na wiek serwisu jest jedną z metod zwiększania jakości wyników wyszukiwania. Gdyby serwisy o różnym wieku miały analogiczne prawa, nic nie stałoby na przeszkodzie dla różnego rodzaju metod “czarnego” webmasteringu i w konsekwencji spamowania SERP: jeśli serwis kiepskiej jakości nie wszedłby do TOPu, to webmaster mógłby szybko stworzyć inną stronę (lub setki), a potem szybko wyprowadzić ją na liderujące pozycje. Jednak w sytuacji, kiedy można utracić wyniki na długi okres czasu z powodu działań niezgodnych z zasadami wyszukiwarek, do kwestii pozycjonowania należy podejść z odpowiednią dozą ostrożności. Zasady pozycjonowania nowopowstałych serwisów Młodej strony nie należy pozycjonować na frazy wysokokonkurencyjne. Możliwość wypozycjonowania na frazy tej kategorii pojawia się dopiero po roku (lub więcej!) odpowiedzialnego pozycjonowania serwisu na frazy nisko i średniokonkurencyjne. Młodą stronę należy dokładnie sprawdzić pod kątem obecności błędów oraz “niedoróbek”. Przyjęcie strategii linkbuildingu maksymalnie zbliżonej do naturalnego procesu zdobywania linków (przy czym, oczywiście, nie można zaniedbywać naturalnego zdobywania linków). Eliminujemy techniczne niedoskonałości Podczas tworzenia serwisów wielu ich twórców nie zwraca uwagi na ich dostosowanie do potrzeb SEO: strony sprawdzane są, w najlepszym wypadku, z punktu widzenia użytkownika. A przecież człowiek widzi serwis zupełnie inaczej niż robot wyszukiwarki. Dlatego też każdy nowy lub poddany przeróbkom serwis należy sprawdzić pod kątem obecności typowych błędów: Blokowanie indeksacji. Nieodpowiednio utworzony plik robots.txt (lub źle przypisane meta tagi na stronach) może przeszkodzić wyszukiwarce w odpowiednim indeksowaniu stron, które chcecie pozycjonować. Jeśli strony nie ma w indeksie, to pozycjonowanie jest całkowicie nieskuteczne. Należy zwrócić uwagę, że twórca strony mógł zamknąć wszyskie rozdziały przed indeksacją, zakładając, że wasz specjalista SEO przejrzy pliki i otworzy to, co konieczne. (Zobacz szczegóły) Otwarty dostęp do rozdziałów dla administratorów. Jest to problem odwrotny od opisanego wyżej, polegający na pozostawieniu dla robotów indeksujących dostępu do działów administracji stroną, strony logowania itd. Wszystkie one powinny być nie tylko zamknięte dla indeksacji, lecz także, poza stroną logowania odmawiać dostępu ze strony serwera. Nieprawidłowy kod HTML. Niezamknięte tagi, treść rozmieszczona poza tagiem < html >, wykorzystanie więcej niż raz na stronę zagłówka H1 i tak dalej - te wszystkie niewidoczne dla zwykłego użytkownika niedostatki mogą poważnie zaszkodzić ocenie strony przez wyszukiwarki. Skrupulatnie sprawdzony i poprawny kod to klucz do bezproblemowej indeksacji i pozytywnego ustosunkowania się wyszukiwarki do strony. Nieprawidłowo ustawiony CMS. Wiele systemów zarządzania treścią przy niewłaściwych ustawieniach ma skłonność do zachowań niezbyt przyjaznych wobec wyszukiwarek. Na przykład dosyć często występuje wewnętrzne dublowanie stron - gdy jedna strona dostępna jest pod kilkoma adresami (z zamykającym / i bez, z .html i bez, jako wersja do druku itd.). Należy temu zapobiegać na etapie ustawień systemu zarządzania treścią i serwera. Należy również ukryć przed wyszukiwarkami strony z wynikami wewnętrznego wyszukiwania wśród elementów serwisu i wszelkie inne elementy odgrywające jedynie rolę pomocniczą przy korzystaniu z witryny. Należy zadbać także o to, aby CMS tworzył od razu adresy URL przyjazne zarówno dla użytkownika, jak i wyszukiwarek. Takie adresy nie tylko pomagają odwiedzającym orientować się w strukturze serwisu, lecz także (co ważniejsze z punktu widzenia SEO) mogą zawierać słowo kluczowe, na które strona jest pozycjonowana, co zwiększa jej relewantność wobec tej frazy. Jak widać, przed rozpoczęciem pozycjonowania młodej strony należy przeprowadzić dokładny audyt SEO, aby wyeliminować wszelkie zależne od nas czynniki, które mogą przeszkodzić nam w dotarciu do TOPu. Precz z pustymi stronami! Wszystkie strony koniecznie należy zapełnić jakościową treścią: oryginalną, tematyczną i skuteczną (w kontekście profilu twojej strony). Należy przy tym pamiętać, że pozycjonowane powinny być serwisy, które składają się już z wielu podstron (witryna składająca się z pięciu czy dziesięciu podstron będzie słabo pięła się w górę wyników). Każda z tych podstron powinna posiadać odpowiednią ilość treści. Użytkownik, który natrafi na pustą stronę, najprawdopodobniej straci zaufanie do serwisu i łatwiej przyjdzie mu przerzucenie się na Twoją konkurencję. Oczywiście treść należy regularnie rozwijać i aktualizować, dodawać nowe artykuły,nowości, projekty w portfolio itp. Z punktu widzenia SEO najlepiej przemyśleć, na jakie podstawowe frazy kluczowe będziemy chcieli pozycjonować serwis, jeszcze przed stworzeniem treści na strony. Dla tych fraz dobrze jest stworzyć landing pages i wyprowadzić je do TOPu. Pozycjonowana strona powinna być relewantna wobec frazy kluczowej i zawierać ją w: przemyślanym nagłówku title, metatagach keywords oraz description atrybutach alt grafik nagłówkach H1 tekście (ale bez przesadnego zagęszczenia, aby wyszukiwarka nie potraktowała tego jako spamu). To są minimalne wymagania. W ideale cała strona powinna odpowiadać zapytaniu i kierować użytkownika w prosty sposób do wykonania określonego przez was, pożądanego działania. Należy rozumieć i pamiętać, że sprowadzenie użytkownika na stronę to dopiero pierwszy krok, a celem ostatecznym jest uzyskanie wysokiej konwersji. Pozycjonowanie młodej strony za pomocą linkowania zewnętrznego Dynamika jakościowego i ilościowego przyrostu linków prowadzących na młodą stronę wymaga szczególnej uwagi. Jeśli wyszukiwarka zauważy, że w ciągu pierwszych tygodni po pierwotnej indeksacji pojawią się setki linków, to może zostać sklasyfikowane przez wyszukiwarkę jako jawna i nachalna próba wpłynięcia na wyniki nawet bez próby zachowania pozorów naturalności, co może doprowadzić do zastosowania wobec pozycjonowanych fraz filtra i obniżenia pozycji strony w wynikach wyszukiwania. Oczywiście, i od tej zasady są wyjątki w postaci osobistych stron celebrytów, polityków, itp., jednakże większości zwykłych właścicieli serwisów to niestety nie dotyczy. Należy zatem działać stopniowo i z umiarem, na początku dbając szczególnie o poziom zaufania stron, z których chcielibyśmy, by prowadziły na naszą stronę linki. W tym celu można rozesłać naszym partnerom i klientom komunikaty prasowe, skontaktować się z mediami lub blogerami, rozpocząć kampanie reklamowe, dużą uwagę poświęcając mediom społecznościowym i przede wszystkim tworząc naprawdę interesującą i wartościową treść, tak aby użytkownicy sami zechcieli podzielić się z innymi internautami linkiem prowadzącym na waszą stronę. Strategia pozycjonowania Przez pierwsze kilka miesięcy od powstania strony rekomendowane jest pozycjonowanie serwisu na niskokonkurencyjne, małopopularne frazy. Jeśli wewnętrzna optymalizacja została wykonana poprawnie, strona będzie potrzebowała zaledwie kilku symbolicznych linków, aby znaleźć się w TOPie. Przez ten pierwszy okres można się skupić właściwie tylko na stronie głównej i kilku naprawdę najistotniejszych rozdziałach (tutaj należy jednak zastrzec, że zupełnie inaczej rzecz się ma w przypadku sklepów internetowych, których pozycjonowanie należy zacząć od stron produktów, przyjmując podobną taktykę - porządna optymalizacja i dosłownie kilka linków). Kiedy strona nieco “dorośnie”, można będzie rozpocząć pozycjonowanie fraz średnio-konkurencyjnych, oczywiście na odpowiednio przygotowanych i dopasowanych tematycznie stronach. Dopiero po uzyskaniu przez te frazy oczekiwanych rezultatów można rozpocząć pozycjonowanie docelowych fraz wysoko-konkurencyjnych. Pozycjonowanie nie od razu przynosi oczekiwane rezultaty w postaci ruchu na stronie, dlatego też w pierwszym okresie istnienia strony warto ruch ten wzmacniać poprzez kampanie PPC, na przykład w Google AdWords. Oczywiście, po uzyskaniu TOPu w wynikach wyszukiwania z tego typu reklamy można będzie zrezygnować i tym samym znacząco obniżyć swoje wydatki na reklamę w internecie i w efekcie koszt przyciągnięcia klienta. Wnioski Jeśli strona dopiero co została uruchomiona, nie warto zapominać o jej przygotowaniu do przyszłego pozycjonowania, tym bardziej, że być może wasza konkurencja zaniedbała optymalizację i wasz serwis samoistnie, dzięki waszym staraniom i bez zbędnych kosztów, znajdzie się w TOP10.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .