Skocz do zawartości
spacer.png
spacer.png

[Poradnik] Jak przeprowadzić audyt strony pod względem SEO


Rekomendowane odpowiedzi

Opublikowano

Jak przeprowadzić audyt strony pod względem SEO
[Poradnik]

 

Audyt strony pod SEO to zbiór czynności mający na celu zoptymalizowanie strony internetowej pod kątem wyszukiwarek internetowych ale też funkcjonalności, wygody użytkowników, czy nawet wyświetlania reklam.


Aktualizowane poradniki + wsparcie i pomoc
Mentoring: SEO/SEM + Wyniki AI
 spacer.png
DOŁĄCZ DO NAS JUŻ TERAZ


Standardowy audyt to sprawdzenie jak użytkownik porusza się po naszej stronie, co robi, gdzie klika. Ma to oczywiście poprawić konwersje np. klikalności w reklamy, a więc może w stopniu bezpośrednim przekuć się na zarobki. Poza sprawami zarobkowymi sprawdzamy czy wszystkie linki są poprawne, jak i czego szukają użytkownicy oraz czy mają z tym problem. Do wszystkiego istnieją odpowiednie narzędzia, które mapują naszą stronę, a z tym zadaniem coraz lepiej radzi sobie Google Analytics, które jest bardzo łatwe w obsłudze - wystarczy wygenerować kody konwersji i badać interesujące nas wydarzenia. Jest to jednak poradnik, więc skupimy się konkretnie na Audycie SEO. 

Audyt SEO, to zbiór czynności którego głównym celem jest dostosowanie strony internetowej do wytycznych wyszukiwarek, co oczywiście ma owocować zwiększeniem ruchu organicznego. Audyt ten możemy podzielić na On-Page, czyli działania na naszej stronie, jak np. optymalizacja kodu czy treści oraz Off-Page, czyli działania poza naszą stroną, kierujące do naszej strony, jak np. linkowanie

Powinniście już wiedzieć jak znaleźć wygasłą domenę, a tym samym, jak daną domenę ocenić i w dokładnie ten sam sposób możecie ocenić swoją domenę zadając pytania czy wszystko jest w porządku, czy chcielibyśmy taką domenę jeśli byłaby dostępna do rejestracji. Zadając takie pytania - sprawdzając statystyki swojej strony (np. PA, DA, TF, CF i inne), wykonacie część zewnętrzną audytu SEO.

Na forum pisałem już trochę o optymalizacji strony internetowej, ale były to raczej podstawy, na które Trzeba zwrócić uwagę. Mimo wszystko, jeśli podążaliście za tymi punktami, to tak naprawdę Wasza strona internetowa może już istnieć i być w miarę dobrze zoptymalizowana. I tu właśnie pojawia się audyt, który ma nas utwierdzić czy aby na pewno wszystko jest dobrze. Zalecam każdorazowo przeprowadzić solidny audyt każdej nowej powstałej strony, ponieważ wszelakie zmiany najlepiej wdrażać przed rozpoczęciem właściwych działań związanych z promocją strony, a nam chodzi głównie o linkowanie czy wdrażanie content planu.

Przechodząc do konkretów, istnieje wiele stron oferujących darmowe audyty, różnego rodzaju checkery ale większość z nich jest bardzo ograniczona. Miałem do czynienia z dużą ilością tego typu programów i od dłuższego czasu zdecydowanie najlepszym z nich jest Website Auditor: https://www.link-assistant.com/website-auditor/

Program jest aktualizowany nawet kilka razy w tygodniu, co jest kolosalnie ważne w SEO, które stale się zmienia. Program posiada naprawdę wiele funkcji więc po kolei.

Weźmy sobie na przykład jakąś stronę z kategorii suplementów na zgubienie wagi (bardzo oblegane, komercyjne frazy). Niech będzie to jakaś strona rankująca wysoko, która nie jest zbyt duża (program zbiera dane w czasie rzeczywistym, więc przy stronie posiadającej kilka tysięcy podstron, jakimś blogu mogłoby to zająć nawet kilka godzin).

Strona do przykładowego audytu:

https://thrivestrive.com

* strona już nie istnieje, jednak wszystkie dane do przykładów udało zapisać się na screenach, więc postanowiłem zostawić przykład


Pobieramy program (można tez użyć innych widocznych w katalogu), klikamy nowy projekt, podajemy adres strony, którą chcemy sprawdzić i czekamy na załadowanie ogromu danych.

Po jakiś 5 minutach program znalazł i przeanalizował 1933 adresów URL strony:

Website Auditor - jak używać?

Powyższy obraz pokazuje pierwsze okno, jakie zobaczycie po wczytaniu danych. Na co od razu warto zwrócić uwagę? W bardzo łatwy sposób już na tym etapie możemy sprawdzić czy wszystkie podstrony wczytują się poprawnie -"Status kodu HTTP" - oraz jakie przekierowanie towarzyszy wyświetlaniu się danej podstrony.

Kolejnym zdecydowanie ważnym czynnikiem są dwie kategorie - linki do strony i linki ze strony. W bardzo szybki sposób dowiemy się ile linków jest kierowanych do danej podstrony, a ile z niej wychodzi. Ponadto niżej znajdziemy dokładne informacje na temat "Link(ów) do strony" i "Link(ów) ze strony." Klikając na interesującą nas kategorie otrzymamy kolejne dane na temat ilości linków, ilości linków dofollow oraz tych w tagach html. Ta część pokaże nam dodatkowo, ile dana podstrona zawiera obrazków, ile z nich (o ile są) jest zerwanych (niedostępnych) oraz ile z nich nie ma alt tagów, które powinniśmy uzupełnić.

Już pierwsze okno programu zasypuje nas gradem danych, a to dopiero początek. Przejdźmy do drugiego:

Website Auditor - narzędzie SEO

Kolejne okienko "On-Page" pozwoli nam na szybko przejrzeć czy wszystko się zgadza i zapisać podstrony, które budzą nasze wątpliwości. Zyskamy np. informacje na temat długości tytułu każdej ze znalezionych podstron. Z poprzednich treści wiecie już że meta tytuł powinien wynosić 50-70 znaków. Jeśli jakaś z podstron zawiera mniej lub o wiele więcej - warto to poprawić. Jeśli takich podstron będzie dużo to w łatwy sposób możecie lekko zwiększyć ruch organiczny na stronie samą tylko zmianą długości tytułu. Analogicznie będzie ze zmianą długości meta description.

Przydatnym narzędziem do sprawdzania długości meta opisów jest, np.: https://totheweb.com/learning_center/too...n-lengths/

Ważnym czynnikiem szczególnie przy dużych stronach będzie informacja o duplikacie tagu meta title lub meta description co jest karygodnym błędem w SEO i wcale nie takim rzadkim - jeśli taki duplikat występuje, to należy go od razu poprawić. Często problem wynika z nieodpowiedniej budowy strony np. duplikowania indeksu strony głównej, a więc: 

http://strona.com 

oraz 

http://strona.com/index.html

W tej sytuacji należy przekierować index.html do strony głównej lub ustawić adres kanoniczny - zalecam przekierowanie 301 do wybranego adresu, najlepiej tego bez końcówki index.html.

Dalej zobaczymy wszelakie przydatne dane jak ilości nagłówków*, obrazków, ogólnej ilości tekstu.

* każda podstrona może zawierać tylko jeden nagłówek H1, jeśli któraś z nich zawiera ich więcej to należy to naprawić. 


Z podstawowych danych mogliśmy wynieść już naprawdę dużo danych, a to dalej dopiero początek, przejdźmy do zakładki "Wizualizacja," gdzie otrzymamy przestrzenny obrazek budowy strony (nazywany w SEO - "Strukturą Silo strony"):

website auditor - wizualizacja


Klikając na dane kółeczko zyskamy informacje na temat głębokości kliknięć, linków przychodzących i wychodzących. Głębokość kliknięć jest tutaj najważniejszą informacje, ponieważ pozwoli nam bardzo łatwo namierzyć podstrony, które są zbyt daleko od strony głównej, co z pewnością negatywnie wpływa na ich widoczność. Co do zasady warto zadbać, żeby żadne miejsce nie było oddalone dalej niż 5 kliknięć robota od strony głównej - im bliżej dana podstrona jest strony głównej tym ma wyższy autorytet w oczach robota wyszukiwarki.

Zakładka "Wszystkie zasoby" pokaże nam z jakich zasobów jest zbudowana cała strona, co może dać pewien wgląd do optymalizacji natomiast na uwagę zasługuje przede wszystkim zakładka "Audyt Witryny:"

website auditor - opinia
 
33 błędy, 190 ostrzeżeń i 4421 informacji - nieźle jak na 5 minut budowania tego audytu.

Za przykład wzięliśmy stronę, która dobrze rankuje w trudnej kategorii, a jak widać nawet taka strona zawiera wiele błędów i w tym miejscu należy sobie jasno napisać, że z optymalizacją też nie można przesadzać. Pewne zmiany mogą nam pomóc ale jeśli kłócą się z budową naszej strony, to finalnie mogą dać odwrotny skutek - takie błędy lepiej zostawić.

Prostym przykładem jest sławne z google speed test:

 

"Wyeliminuj blokujący renderowanie kod JavaScript i CSS"

Z Javascript możemy sobie poradzić, ładując ten kod asynchronicznie natomiast z CSS często wystąpi problem, który będzie naszym problemem - możemy wyeliminować błąd i zyskać wyższy wynik, jednak rozsypiemy wizualne działanie naszej strony.

Problem ten możemy bowiem wyeliminować, przenosząc dane linijki kodu do footera naszej strony, przez co wymusimy ładowanie się tych zasobów na samym końcu. Wyszukiwarka da nam plusa, a co my zobaczymy? Zobaczymy stronę, która w pierwszej sekundzie czy dwóch wyświetla sam kod bez czcionek i schematu strony, co z pewnością odrzuci odwiedzających. I tak wiem, że ten problem finalnie można załatać na wiele innych sposobów, jednak to celowy przykład. Jeśli nie mamy odpowiedniej wiedzy to lepiej dorzucić kilka sensownych linków aniżeli wyszukiwać informacje, które finalnie podbiją wynik testu o zaledwie kilka punktów, co zapewne nie przełoży się na zwiększenie ruchu organicznego, natomiast dodanie solidnych linków lub treści to gwarantuje.

Ten przykład pokazuje, że niektóre błędy lepiej zostawić - wszystko co karygodne należy naprawić, ale jeśli godzinami mamy męczyć się z jakimś drobnym problemem to już lepiej ten czas przeznaczyć na pisanie sensownych artykułów czy dodatkowe linkowanie.

Klikając na dany problem Website auditor pokaże nam zbiór informacji z nim związanych oraz podpowiedzi jak je naprawić, więc z tym nie powinno być większych problemów. Danych jest cała masa stąd pojawia się pytanie Na co warto zwrócić uwagę? Ważne błędy to:

A) Indeksowanie i widoczność przez wyszukiwarki

Warto sprawdzić wszystkie kody odpowiedzi i stanu.

Jeśli mamy jakieś strony z kodem 4xx - który wskazuje na błąd na stornie, to powinniśmy się ich pozbyć. O ile nie jest to oczywiście niezachwialna cześć naszego szablonu. Na przykład w przypadku strony naszego bohatera są to wygasłe (dodane jeszcze w 2016 roku) obrazki w Wordpress, których to mógłby się pozbyć puszczając oczko w stronę wyszukiwarek.

Strony indeksowane z ograniczeniami - warto przejrzeć listę adresów, sprawdzając czy jakaś wtyczka nie ogranicza indeksowania się jakiejś podstrony. Będzie to szczególnie ważne przy audycie większych stron.

Strona 404, Plik robots.txt i sitemap.xml - jest to obowiązek, wszystkie odpowiedzi Muszą być na "Tak."

B ) Skanowanie przekierowań

Wersja z www i bez www - Obowiązkowo musicie ustawić preferowaną wersję jako przekierowanie 301. 

Problemy z HTTP/HTTPS wersje stron - Musi być poprawnie ustawione. Strony z przekierowanie 302 - raczej lepiej unikać, dobrą odpowiedzią będzie "0."

Strony z przekierowaniami 301- tego nie unikniecie jeśli strona jest większa lub chociażby ustawiliście podstawową wersję strony w .htaccess, więc warto przejrzeć listę adresów czy wszystko się zgadza.

Strony z długimi łańcuchami przekierowań - może utrudniać indeksowanie, lepiej żeby tych błędów nie było.

Strony z meta refresh - oczywiście unikamy przy SEO. 

Strony z rel="canonical" - w tym miejscu Website Auditor uzna to za błąd jeśli nie będziecie używać adresów kanonnicznych. Nie jest to jakiś karygodny błąd przy mniejszych stronach, bo wystarczy na zdublowanych stronach, zastosować przekierowanie 301, które to będzie lepszym rozwiązaniem. Rel canonical ma za zadanie określić oryginalną podstronę. Będzie to szczególnie ważne przy wszelkiego rodzaju stronach E-Commerce (w przypadku produktu i jego kategorii). Jeśli więc nie używacie adresów kanonicznych na mniejszej stronie to raczej nie ma w tym nic strasznego, choć też nic się nie stanie, jak je ustawicie.

Co do zasady rel="canonical" ma wskazywać oryginalny adres, oryginalną treść.

Praktyczne wykorzystanie rel="canonical" ma miejsce na szeroką skalę w sklepach internetowych, które zawierają podstrony kategorii z produktami, np. domena.pl/koszulki-letnie, która wyświetla koszulki letnie w wielu rozmiarach i kolorach. Każda zmiana rozmiaru czy koloru dopisuje adres, np.

domena.pl/koszulki-letnie?filtr_kolor=fioletowy

Zastosowanie filtra zmienia jedynie wyświetlany obrazek, dublując treść na stronie, więc, żeby uniknąć duplikowania treści należy zadbać, żeby adresy z filtrami zawierały rel="canonical," kierujący do podstrony kategorii, czyli w tym przypadku:

domena.pl/koszulki-letnie

C) Kodowanie i czynniki techniczn

  • Przyjazna dla urządzeń mobilnych - Tak
  • Strony HTTPS z mieszanymi treściami - 0
  • Strony z duplikatem kodu rel="canonical" - 0
  • Strony z ramkami - 0

D) Adresy URL

Dynamiczne adresy URL- w tym miejscu możemy szybko znaleźć adresy, które mają opis nieprzyjazny z tym czego oczekują wyszukiwarki i o ile jest to realnie wartościowa podstrona, którą chcemy pozycjonować, to możemy ją zapisać, zmienić jej adres ze słowem kluczowym i być może w ten łatwy sposób podnieść jej ranking.

E) Audyt linków wychodzących

W tym miejscu warto sprawdzić wszystkie niedziałające linki, strony z nadmierną ilością linków oraz zewnętrzne linki dofollow.

Bardzo dużo, bardzo ważnych danych. Strona powinna posiadać linki wychodzące natomiast jeśli jest ich za dużo, to zalecane jest zrezygnowanie z ich namiaru.

* jeśli mamy na stronie banery, reklamy, linki do siec afiliacyjnych to takie linki obowiązkowo muszą zyskać atrybut rel="nofollow," by wskazać robotowi wyszukiwarki, żeby za nimi nie podążał oraz że nie ufamy tym linkom - atrybut nie daje gwarancji, że robot nie kliknie w ten link, jednak zapamiętuje, że wskazaliśmy źródło tego linku jako niezaufane.

F) Alt tagi w obrazach

Zerwanych obrazów najlepiej unikać - program wskaże nam stronę oraz adres URL, więc z łatwością będziemy w stanie to naprawić.

Puste alt tagi - z alt tagami nie ma co przesadzać, a raczej ze słowami kluczowymi, które chcemy w nich zawrzeć. Natomiast każdy obrazek warto opisać alt tagiem, czyli dać znać robotowi co jest na tym obrazku. I tak właśnie zalecam to robić- nadajemy alt tag na podstawie tego, co widzimy, a jeśli jest to dodatkowo powiązane z naszą stroną czy bezpośrednim słowem kluczowym, to wtedy możemy z tego skorzystać.

* ważna uwaga - słowa kluczowe w alt tagach liczą się do ogólnego nasycenia danej podstrony słowami kluczowymi, więc nadużywanie słów kluczowych w alt tagach, bardzo często prowadzi do przesycenia danej podstrony słowami kluczowymi, co skutkuje obniżeniem jej rankingu. Dlatego warto trzymać się zasady, żeby opisać to, co widzimy, nie przejmując się, jeśli w ogóle nie ma w nich słów kluczowych lub powiązanych.

G) Na stronie

W tym miejscu tak naprawdę wszystko jest ważne i po poprawnym audycie powinniśmy widzieć same zera. Zduplikowane META descriptions to błąd krytyczny, jak zaznacza Website Auditor, z czym zdecydowanie się zgadzam.

W tym miejscu dążcie wyeliminowania wszystkich błędów i ostrzeżeń.

H) Lokalizacje

Mogą pojawić się jakieś błędy czy problemy jeśli nasza strona jest wielojęzykowa i zawiera kody języków czy generalnie różnie wersje językowe.

Już na tym etapie znaleźliśmy masę błędów i mamy co robić ale to nadal wierzchołek tego jak głęboko może zajrzeć ten program. Dogłębną analizę danej podstrony (lub strony głównej jeśli mówimy o LP) uzyskamy klikając w "Treści strony," wybierając daną stronę wraz ze słowami kluczowymi, pod jakie jest optymalizowana.

Co ciekawe, dane z "Treści strony" będą uzupełniały puste dotychczas tabelki w "Struktura strony" takie jak np. "On-Page." Dzięki temu po przeprowadzonej analizie możemy znowu wrócić do bardziej ogólnego widoku, gdzie możemy posortować podstrony z uwagi na kolejne czynniki.

Sprawdźmy sobie podstronę: 

https://thrivestrive.com/exercising-keto-diet/

Nie potrzeba tu dodatkowej analizy, żeby wywnioskować że główne słowa kluczowe to: 'exercising keto diet' oraz 'keto diet'.

Wpisujemy więc adres podstrony w adres wyszukiwania, otrzymujmy jej adres, wpisujemy słowa kluczowe, klikamy "zakończ" przechodzimy dalej:

audyt strony internetowej - seo

narzędzie seo do audytu stron

Po załadowaniu znowu jesteśmy zasypani gradem danych, w tym przypadku jeszcze dokładniejszych. Dokładnie tak jak poprzednio widzimy błędy, ostrzeżenia oraz informacje jednak są to dokładniejsze dane skupiające się już na danych słowach kluczowych. Akurat w tym przypadku wszystko jest dobrze opisane przez Website Auditora, a ocena jaką zalecałbym uzyskać to te minimum 80%.

Natomiast to co wymaga uwagi to współczynnik TF-IDF pomagający zoptymalizować ilość słów kluczowych (i nie tylko) na danej stronie. Współczynnik TF-IDF nie wskazuje jedynie na zagęszczenie słów kluczowych ale na ich priorytet i powiązanie z innymi podobnymi słowami kluczowymi występującymi w tekście. Jest to oczywiście związane z "related keywords," które występują w wyszukiwarce Google. Website Auditor wskazuje nam procentową wartość optymalizacji. Byłoby bardzo dobrze, gdyby każde z optymalizowanych słów byłoby zoptymalizowane na co najmniej 70%.

W zakładce konkurencji otrzymacie dane na temat ilości słów tekstu na stronach konkurencji, ich wyniku TF-IDF oraz liczba danych słów kluczowych. Już na tym etapie możecie wypracować sobie mocną przewagę nad konkurencją. W końcu na podstawie tych danych wystarczy przeprowadzić tę optymalizację trochę lepiej niż aktywna konkurencja. Dodajcie trochę więcej słów kluczowych, z lepszych zagęszczeniem i priorytetem TF-IDF i na pewno zyskacie troche przewagi.

Co ciekawe, Website Auditor wskaże Wam również wykaz wszystkich użytych na stronie słów z rekomendacją użycia. Warto przejrzeć całą listę i doprowadzić wszystkie słowa do stanu "Ok," czyli wyeliminować wszystkie, których jest za dużo lub za mało (względem konkurencji).

7.thumb.png.b515d018621cb5b1e936e4dc54e35e52.png

Zostając jeszcze na chwilę w treściach strony możemy uzyskać szczegółowy audyt, którego to nie jesteśmy w stanie wygenerować używając darmowej wersji programu.

Ostatnim ciekawym miejscem w programie jest "Przegląd Domeny," gdzie uzyskamy trochę danych na temat naszej strony. Nie jest to zbyt dokładny wykaz natomiast z ciekawości można zerknąć na statystki naszej domeny po przeprowadzonej optymalizacji.

Jak widzicie Website Auditor to swoisty kombajn do optymalizacji SEO, bijący na głowę każde narzędzie online, zwracając kolosalną ilość danych w jednym miejscu.

Natomiast dodatkowe kwestie na jakie warto zwrócić uwagę podczas audyty to budowa samej strony i szybkość jej działania.

W tym miejscu polecam dwie strony: https://tools.pingdom.com/

pingdom - narzędzie seo

Poniżej znajdziecie całą listę błędów z wyjaśnieniem jak dane błędy naprawić.

Trudno mi cokolwiek opisać, ponieważ każda strona będzie zawierała inne błędy, jednak wszystkie z nich możemy po prostu wpisywać w Google i powinniśmy znaleźć sporo dyskusji na forach o tym jak dane błędy naprawić:

9.thumb.png.f2968b59bd8b098bccef53a0e56cf9c2.png

Do jakich wartości powinniśmy dążyć? Przede wszystkim nie skupiajmy się na ocenie, tzn. dobrze jakby była powyżej 70, ale absolutnie nie musimy dążyć do 100. Tak jak opisywałem wyżej, nadmierna optymalizacja może popsuć "user experience" na naszej stronie i finalnie mimo 100 punktów obniżyć konwersje danego działania którego oczekujemy.

Warto jednak zadbać o:

  • Page Size - wartość nie powinna przekraczać 2MB, a wzorcowo im bliżej 1MB tym lepiej
  • Load time - wartość nie może przekraczać 3 sekund, a wzorcowo im bliżej 1 sec, lub mniej, tym lepiej

Pamiętajcie też, że na Pingom macie do wyboru kilka serwerów, więc jeśli łączycie się z polski, to korzystajcie z serwerów we Frankfurcie czy Londynie. Oczywiście Wasza strona powinna docelowo mieć dobre wyniki w każdym miejscu na świecie, jednak te wzorcowe do audytu sprawdzajcie w lokalizacji jak najbliżej was. 

Jeśli macie, np. Cloudflare na stronie to ta częściowa sieć CDN powinna zapewnić szybsze ładowanie w każdym miejscu na świecie.

Kolejne narzędzie przydatne przy audycie to GTMetrix:

10.thumb.png.a70592a01dc48001e1f7d84e999373cd.png

Jak widać na powyższym przykładzie, Gmetrix jest bardziej krytyczny.

Jeśli chodzi o czas ładowania strony, to test przeprowadzany jest na domyślnym serwerze i nie mamy tu możliwości wyboru jak w przypadku PingDom, jednak podobnie jak w przypadku poprzedniego testu otrzymamy instrukcje co należy poprawić, a same hasła błędów można również kopiować i wpisywać w Google.

Dobrze jakby oba wyniki - performance i structure, były na poziomie co najmniej 50%, a najlepiej powyżej 70%.

Czas ładowania polecam testować na Pingdom (wybierając różne serwery), natomiast te maksymalnie 2-3 sekundy powinniśmy otrzymać nawet w teście Gtmetrix pomimo często niekorzystnej lokalizacji serwera.


Zaktualizowane narzędzie Google Speed Insights, czyli: https://pagespeed.web.dev/ to właściwe narzędzie, w którym powinniśmy maksymalizować wyniki naszej stronie, na podstawie realnych wyników działania oraz innych rekomendacji.

Do jakich wyników powinniśmy dążyć w tym teście? Co do zasady wszystko powinno być "na zielonym," a maksymalnie "na żółtym" wskaźniku.

Kluczowym czynnikiem jest szybkość ładowania strony, która zarówno na desktop, jak i mobilne, powinna wynosić około 1 sekundy.

Jeśli chodzi o cztery kluczowe wyniki, czyli: Performance, Accessibility, Best Practices oraz SEO, to dwa ostatnie powinny być na poziomie 100 lub co najmniej ponad 90, a dwa pierwsze na co najmniej 70 - takie wyniki są z reguły wystarczające, a dalsza optymalizacja, choć jest zalecana, to nie jest konieczna.

Ciekawostką jest audyt od Google, który znajdziemy klikając prawy przycisk myszy będąc na dowolnej stronie i przechodząc do "zbadaj." W nowym okienku, rozwijając listę, znajdziemy podstronę "lighthouse," na której będziemy mogli wygenerować szczegółowy raport, jak działa nasza strona.

 
11.thumb.png.ddea99e2213cbb0ceb7e47982c1c1c76.png

To bardzo ciekawe narzędzie, które pozwoli wycisnąć nam maximum jeśli chodzi o szybkość działania.

Jak na tacy mamy pokazane wszystkie błędy oraz możliwości ich naprawy. Wymaga to jednak dość konkretnej wiedzy z zakresu html, CSS oraz JavaScript. Tak więc jeśli posiadacie takie umiejętności, to w tym miejscu możecie się wykazać i zdobyć dodatkową przewagę poza sama optymalizacją strony, treści i innych.

Z czynników technicznych zdecydowanie najważniejsza jest szybkość pierwszego wczytania strony, szybkość działania samej strony oraz jej rozmiar.

google pagespeed insighs

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Tylko zalogowani użytkownicy mogą dodawać komentarze.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

spacer.png

spacer.png

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek, aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .