
Techniczna lista kontrolna SEO
Indeksowanie i indeksowanie
Pierwszą rzeczą, na którą należy zwrócić uwagę podczas audytu technicznego, jest sposób indeksowania i indeksowania witryny przez wyszukiwarki. W końcu, jeśli strony w witrynie nie mogą być indeksowane, nie będą indeksowane (z kilkoma wyjątkami). W konsekwencji strony, które nie są reprezentowane w indeksie, nie będą uczestniczyć w rankingu.
Przejrzyj raport indeksowania stron w Google Search Console
Najdokładniejszym i najbardziej niezawodnym sposobem analizy indeksowania witryny jest analiza raportu indeksowania stron w Google Search Console. Spójrz na raport zaindeksowanych stron i sprawdź, które strony znajdują się w indeksie. Sprawdź, czy istnieją strony z opcjami filtrowania lub sortowania, czy istnieją strony testowe lub inne strony, których nie chcesz indeksować. Przyjrzyj się również stronom, które zostały wykluczone. Nie wszystkie statusy w raporcie Wykluczone strony stanowią problem. Nie powinieneś skupiać swojej uwagi na wszystkich wykluczonych stronach, ale tylko na tych, na których zachowanie Google nie odpowiada Twoim intencjom. W poniższej tabeli możesz zobaczyć statusy, które zwykle wymagają uwagi i głębszej analizy:
Status | Co oznacza | Co należy zrobić |
---|---|---|
Błąd przekierowania | Google nie mógł śledzić adresu URL z powodu problemów z przekierowaniem. |
|
Błąd serwera | Serwer zwrócił błąd 5xx. |
|
Wykryto – nie zindeksowano | Google wie o stronie, ale jeszcze jej nie zaindeksowało. Wskazuje na problemy z budżetem indeksowania. |
|
Zindeksowano – nie zaindeksowano | Google odwiedziło stronę, ale zdecydowało się jej nie indeksować. Zwykle wskazuje na niską jakość strony. |
|
Duplikat bez kanonicznego wybranego przez użytkownika | Google uważa stronę za duplikat, ale nie określono kanonicznego. |
|
Duplikat, Google wybrało inny kanoniczny niż użytkownik | Google zignorowało określony przez użytkownika kanoniczny. |
|
Miękkie 404 | Strona wygląda na „pustą” lub „nie znaleziono”, ale zwraca status 200 OK. |
|
Pozostałe statusy prawdopodobnie nie sygnalizują żadnych problemów. Warto jednak przejrzeć te raporty, aby upewnić się, że strony nie zostały przez pomyłkę usunięte, przekierowane, kanonizowane lub zablokowane przed indeksowaniem.
Status | Co oznacza | Co należy wiedzieć |
---|---|---|
Alternatywna strona z prawidłowym tagiem kanonicznym | Google poprawnie rozpoznało określony tag kanoniczny. |
|
Adres URL zablokowany przez robots.txt | Google nie może indeksować strony. |
|
URL oznaczony jako „noindex | Strona ma dyrektywę noindex. |
|
Nie znaleziono (404) | Strona nie istnieje. |
|
Zablokowano z powodu nieautoryzowanego żądania (401)/ Zablokowano z powodu zakazu dostępu (403) | Strona jest zablokowana przez autoryzację lub zabroniona. |
|
Strona z przekierowaniem | Strona przekierowuje na inną. |
|
URL zablokowany z powodu innego błędu 4xx | Strona jest niedostępna z powodu błędu 4xx innego niż 404 (np. 403, 401, 410 itp.). |
|
W Centrum Pomocy Google można znaleźć kompleksowy opis raportu strony, w tym przykłady problemów i szczegółowe wyjaśnienie każdego statusu. Screaming Frog może również pomóc w analizie stron, które są indeksowane lub wykluczone z indeksu. Aby to zrobić, musisz połączyć się z Google Search Console API przed rozpoczęciem indeksowania witryny. Aby się połączyć, przejdź do Konfiguracja -> Dostęp API -> Google Search Console. Kliknij Zaloguj się w Google i postępuj zgodnie z instrukcjami.

Source: Screaming Frog
Po połączeniu włącz inspekcję adresów URL, a także możesz włączyć opcję ignorowania inspekcji indeksowania dla adresów URL, których nie można zindeksować.

Source: Screaming Frog
Będziesz wtedy mógł zobaczyć i porównać status każdej strony według Search Console (sposób, w jaki widzi ją Google) i jej rzeczywisty status określony podczas procesu indeksowania.

Source: Screaming Frog
Należy pamiętać, że dla każdej witryny dostępnych jest tylko 2000 adresów URL dziennie, więc ta metoda jest bardziej odpowiednia dla małych witryn.
Sprawdź, co znajduje się w pliku sitemap.xml
Sitemap.xml to plik XML, który zapewnia robotom indeksującym wyszukiwarek listę stron w witrynie, a także (opcjonalnie) informacje o dacie ich ostatniej modyfikacji, częstotliwości aktualizacji i zalecanym priorytecie indeksowania. Zwykle jest umieszczany w katalogu głównym witryny, na przykład: https://example.com/sitemap.xml. Sitemap.xml pomaga wyszukiwarkom szybciej znaleźć nowe lub zaktualizowane strony. Ponadto włączenie strony do tego pliku jest jednym z sygnałów do określenia kanonicznej wersji strony, aczkolwiek słabym.

Source: e-commerce sport store
Plik sitemap.xml jest szczególnie przydatny dla:
- nowych witryn z niewielką liczbą linków zewnętrznych;
- dużych witryn z wieloma stronami;
- witryn z dużą ilością treści multimedialnych;
- często aktualizowanych witryn z wiadomościami.
Sitemap.xml powinien zawierać wszystkie strony, które chcesz indeksować. Możesz użyć tego samego Screaming Frog lub innych crawlerów do analizy stron zawartych w Sitemap.xml. W Screaming Frog sitemap.xml może być skanowany oddzielnie w trybie listy lub może być włączony do regularnego skanowania witryny. Aby to zrobić, w Konfiguracja -> Pająk -> Crawl, aktywuj skanowanie mapy witryny XML i dodaj bezwzględne adresy URL map witryn, które chcesz indeksować. Nie zaleca się korzystania z różnych usług online do generowania mapy witryny, ponieważ mogą one generować tylko statyczną mapę witryny, która nie będzie automatycznie aktualizowana. Optymalną opcją jest wygenerowanie sitemap.xml za pomocą wtyczek do CMS, na którym działa witryna, lub napisanie niestandardowego skryptu, który generuje mapę witryny zgodnie z określonymi warunkami i automatycznie aktualizuje ją po wprowadzeniu zmian w witrynie. Podczas generowania sitemap.xml upewnij się, że plik jest zgodny z protokołem sitemap.xml. W tym celu można skorzystać z różnych walidatorów online, takich jak https://www.xml-sitemaps.com/validate-xml-sitemap.html. Czy konieczne jest uwzględnienie wszystkich tagów wymienionych w protokole? Nie zawsze. Na przykład Google bierze pod uwagę tylko tagi <loc> i <lastmod>. Upewnij się, że data w znaczniku <lastmod> jest dokładna. Jeśli istnieją próby manipulowania nim, Google może zignorować ten tag.
Upewnij się, że w pliku robots.txt nie ma błędów
Plik robots.txt to pierwsze miejsce, do którego zagląda bot wyszukiwarki przed zaindeksowaniem witryny. Określa on, które sekcje witryny mogą lub nie mogą być indeksowane, a w rezultacie, które strony będą indeksowane przez wyszukiwarki. Powinien on zawsze znajdować się pod adresem https://example.com/robots.txt. Plik ten jest narzędziem do zarządzania indeksowaniem witryny. Niektóre strony, nawet jeśli są zablokowane w pliku robots.txt, nadal mogą być indeksowane (zwykle jeśli istnieją do nich linki wewnętrzne lub zewnętrzne). Takie strony (zaindeksowane pomimo zablokowania w robots.txt) można zobaczyć w Google Search Console w raporcie „Zaindeksowane, choć zablokowane przez robots.txt”.

Source: Search Console
Oto, co należy sprawdzić w odniesieniu do pliku robots.txt w ramach technicznego audytu SEO:
- Dostępność pliku
Plik powinien być dostępny pod adresem https://example.com/robots.txt i dawać status odpowiedzi 200 OK. Jego brak, błędy pobierania lub przekierowania (301, 302, 403, 404) mogą uniemożliwić wyszukiwarkom prawidłowe zrozumienie zasad indeksowania witryny.
- Składnia i poprawność
Sprawdź, czy struktura plików jest zgodna ze standardem. Przykład podstawowego szablonu:
- User-agent: *
- Disallow: /admin/
- Allow: /public/
- Mapa witryny: https://example.com/sitemap.xml

Source: nike.com
- Dyrektywy Disallow i Allow
Sprawdź, czy ważne strony nie zostały przypadkowo wyłączone, np:
- Strona główna (/)
- Karty produktów (/product/)
- Blog lub artykuły (/blog/, /articles/)
Częstym błędem jest blokowanie obrazów, stylów i skryptów podczas blokowania folderów administracyjnych. W takim przypadku należy określić, że chociaż folder administracyjny jest zablokowany, niektóre typy plików powinny być otwarte do skanowania. Zdarza się to często w witrynach WordPress, gdy folder z całą zawartością użytkownika, Disallow: /wp-content. W takim przypadku tylko pliki o określonym formacie mogą być otwierane do skanowania:
- Allow: /wp-content/uploads/*.css
- Allow: /wp-content/uploads/*.js
- Allow: /wp-content/uploads/*.jpeg
Aby zweryfikować plik robots.txt i przetestować dyrektywy, które chcesz dodać, możesz użyć tego narzędzia.
- Sprawdź zgodność z innymi dyrektywami
Błędy często pojawiają się, gdy robots.txt koliduje z:
- meta tag <meta name=”robots” content=”noindex”>
- canonical
Na przykład, jeśli strona jest otwarta w robots.txt, ale zablokowana przez noindex, zostanie zaindeksowana, ale nie trafi do indeksu. Jest to dopuszczalne, ale ważne jest, aby zrobić to celowo. Częstym problemem jest również sytuacja, gdy w kodzie źródłowym znajdują się inne instrukcje dla botów i jednoczesne zablokowanie strony w pliku robots.txt. Roboty wyszukiwarek nie skanują stron zablokowanych w robots.txt. Nie widzą tagów określonych w kodzie, na przykład kanoniczności. Oznacza to, że taki kanoniczny będzie po prostu nieuwzględniony.
Sprawdź linkowanie wewnętrzne
Jednym z kluczowych zadań audytu technicznego jest upewnienie się, że linkowanie wewnętrzne witryny działa poprawnie. Oznacza to, że wszystkie linki wewnętrzne muszą prowadzić do prawdziwych, istniejących stron, które są otwarte do indeksowania, zwracają kod stanu 200 OK, nie zawierają przekierowań i, co najważniejsze, nie wskazują na strony z błędami 4xx/5xx. Na pierwszy rzut oka może się to wydawać drobnym szczegółem, ale w praktyce nawet nieprawidłowe linki wewnętrzne mogą mieć negatywny wpływ:
- Efektywność indeksowania strony przez wyszukiwarki,
- Rozkład wewnętrznej wagi SEO (PageRank),
- doświadczenie użytkownika.
Pierwszym krokiem w analizie jest sprawdzenie wszystkich linków wewnętrznych pod kątem błędów. Szczególnie ważne jest zidentyfikowanie niedziałających linków, które prowadzą do stron z błędami 404, 410 lub innymi (takimi jak 403, 500). Poniżej znajduje się tabela z głównymi typami błędów, które mogą wystąpić w linkach wewnętrznych, ich znaczeniem i zalecanymi działaniami w celu ich naprawienia.
Typ błędu | Co oznacza | Co należy zrobić |
---|---|---|
404 | Nie znaleziono strony | Usuń link lub zastąp go działającym. |
403 | Dostęp zabroniony | Sprawdź ustawienia dostępu |
301/302 | Przekierowanie | Zaktualizuj link do ostatecznego adresu URL |
5xx | Błąd serwera | Sprawdź serwer lub CMS |
Ważne jest również przeanalizowanie głębokości hierarchii strony, co oznacza określenie, na jakim poziomie i ile kliknięć od strony głównej znajduje się kluczowa treść. Zaleca się, aby ważne strony znajdowały się nie głębiej niż na trzecim poziomie – zwiększa to ich dostępność zarówno dla wyszukiwarek, jak i użytkowników. Jednym z kluczowych elementów analizy jest identyfikacja „osieroconych” stron – tych, które nie mają wewnętrznych linków wskazujących na nie. Nawet jeśli strony te są uwzględnione w mapie witryny, brak linków wewnętrznych sprawia, że są one mniej dostępne. Dodatkowo ważne jest przeanalizowanie anchor tekstów – słów i fraz, które zawierają linki. Powinny one być odpowiednie i znaczące, ponieważ teksty kotwicy pomagają wyszukiwarkom zrozumieć kontekst linku.
Analiza statystyk indeksowania
Analiza statystyk indeksowania to sposób na zrozumienie, w jaki sposób Googlebot wchodzi w interakcję z witryną: które strony są indeksowane, jak często i jak wpływa to na SEO. Dane te są dostępne w Google Search Console → Ustawienia → Statystyki indeksowania. W poniższej tabeli można zobaczyć najczęstsze problemy, które można znaleźć w tym raporcie:
Problem | Czego szukać w raporcie | Możliwe przyczyny |
---|---|---|
Gwałtowny spadek indeksowania | Mniejsza liczba indeksowań dziennie | Problemy z dostępnością, nieprawidłowe ustawienia w pliku robots.txt, bloki, błędy 5xx |
Wiele błędów 4xx i 5xx | Błędy w adresach URL | Usunięte strony, niedziałające linki, problemy z serwerem |
Zwiększony czas odpowiedzi | >1 sekunda – znak ostrzegawczy | Problemy z hostingiem, przeciążenie serwera |
Wiele przekierowań 3xx | Przekierowania zamiast bezpośrednich adresów URL | Nieprawidłowe przekierowania, łańcuchy przekierowań, duża liczba linków wewnętrznych z przekierowaniami |
CSS/JS nie są indeksowane | Brakuje ich w statystykach | Zablokowane przez robots.txt |
Dodatkowo można analizować logi serwera. Pozwalają one zobaczyć rzeczywiste żądania od botów wyszukiwania (nie tylko Googlebota, ale także Bingbota, YandexBota i innych), a nie tylko zagregowane dane z Google Search Console. Jest to zaawansowana, „surowa” metoda diagnostyczna, która wymaga znacznej ilości czasu. Do wizualizacji danych można użyć narzędzi open-source, takich jak GoAccess lub Screaming Frog Log File Analyser.
Wdrożenie danych strukturalnych
Dane strukturalne to specjalny format znaczników na stronie internetowej, który pomaga wyszukiwarkom dokładniej i głębiej zrozumieć zawartość strony. Służy jako „podpowiedź” dla Google i innych wyszukiwarek na temat tego, co dokładnie znajduje się na stronie – artykuł, produkt, przepis, recenzja, film itp. Chociaż nie jest to oficjalny sygnał rankingowy, pośrednio wpływa na rankingi, poprawiając sposób, w jaki wyszukiwarki rozumieją stronę. Głównym standardem lub protokołem używanym do danych strukturalnych na stronach internetowych jest Schema.org. Istnieją inne protokoły, takie jak OpenGraph, ale jest on używany w sieciach społecznościowych. Schema.org to wspólny projekt Google, Microsoft, Yahoo i Yandex, stworzony w celu opracowania i utrzymania ujednoliconego standardu danych strukturalnych w sieci. Schema.org obejmuje setki typów encji, z najczęściej używanymi wymienionymi w poniższej tabeli:
Kategoria | Jednostka (@typ) | Cel |
---|---|---|
Treść i strony | Artykuł | Artykuł lub treść wiadomości |
BlogPosting | Wpis na blogu | |
NewsArticle | Artykuł z wiadomościami dla Google News | |
FAQPage | Strona z często zadawanymi pytaniami (FAQ) | |
HowTo | Przewodnik krok po kroku | |
WebPage | Ogólne informacje o stronie internetowej | |
Produkty i oferty | Produkt | Opis produktu |
Oferta | Oferta cenowa | |
AggregateOffer | Zakres cen dla produktu od różnych sprzedawców | |
Recenzje i oceny | Recenzja | Recenzja produktu lub usługi |
Ocena | Ocena liczbowa (często w ramach recenzji) | |
AggregateRating | Średnia ocena na podstawie wielu recenzji | |
Organizacje i ludzie | Organizacja | Opis firmy lub marki |
LocalBusiness | Lokalna firma z informacjami kontaktowymi i harmonogramem | |
Osoba | Osoba (np. autor artykułu, prelegent itp.) | |
Wydarzenia | Wydarzenie | Wydarzenie online lub offline |
Nawigacja i struktura | BreadcrumbList | Nawigacja po okruszkach |
SiteNavigationElement | Elementy menu głównego | |
Multimedia | VideoObject | Wideo z metadanymi (dla fragmentów wideo) |
ImageObject | Obraz z opisem | |
Edukacja i praca | Kurs | Kurs online lub program szkoleniowy |
JobPosting | Oferta pracy (dla Google for Jobs) |
Zaleca się implementację danych strukturalnych w formacie JSON-LD. Ten blok jest umieszczany w <head> lub <body> dokumentu HTML, ale nie jest wyświetlany użytkownikowi – jest odczytywany przez boty wyszukiwania. Wszystkie główne wyszukiwarki, takie jak Google, Bing i Yahoo, obsługują ten format. Przykład kodu JSON-LD przedstawiono poniżej: <script type=”application/ld+json”> { „@context”: „https://schema.org”, „@type”: „Article”, „headline”: „Czym jest JSON-LD?”, „author”: { „@type”: „Person”, „name”: „John Smith” }, „datePublished”: „2025-12-01” } </script> Wdrażając dane strukturalne, postępuj zgodnie z protokołem Schema.org i użyj walidatora, aby sprawdzić poprawność zaimplementowanych typów mikrodanych. Niektóre typy danych strukturalnych z protokołu Schema.org mogą również pomóc w wyświetlaniu fragmentów rozszerzonych w wynikach wyszukiwania Google. Należy pamiętać, że wymagania Google dotyczące danych strukturalnych dla fragmentów rozszerzonych różnią się nieco od standardu Schema.org. Często trzeba określić więcej pól niż wymaga tego protokół Schema.org. Jeśli więc chcesz uzyskać Rich Snippet, postępuj zgodnie z wytycznymi Google dotyczącymi danych strukturalnych. Poprawność implementacji mikrodanych można sprawdzić za pomocą walidatora rich snippet. Istnieje również wiele generatorów mikrodanych, ale mogą one tworzyć tylko statyczny kod, który nie będzie aktualizowany wraz ze zmianami treści na stronie. Zapewnienie, że informacje w mikrodanych są zgodne z tym, co jest widoczne dla użytkowników na stronie, jest częścią wymagań Google dotyczących danych strukturalnych. Jeśli zasady dotyczące danych strukturalnych zostaną naruszone, strona może utracić wszystkie fragmenty rozszerzone, a w niektórych przypadkach może zostać ukarana ręcznie. Dlatego upewnij się, że mikrodane są generowane automatycznie i automatycznie aktualizowane.
Treść
W ramach technicznego audytu SEO ważne jest, aby ocenić podstawowe cechy treści: od struktury nagłówków i metatagów po obecność atrybutów alt dla obrazów i potencjalnych duplikatów stron. Elementy te mają bezpośredni wpływ zarówno na indeksowanie, jak i sposób postrzegania witryny przez wyszukiwarki.
Sprawdź swoją witrynę pod kątem pełnych duplikatów
Pełne duplikaty występują, gdy identyczna treść jest dostępna pod różnymi adresami URL w witrynie. Duplikaty mogą całkowicie zaszkodzić rankingom witryny. Najczęstsze typy pełnych duplikatów to:
- Dostępność zarówno przez HTTP, jak i HTTPS
- Dostępność z lub bez WWW
- Dostępność z końcowym ukośnikiem lub bez niego
- Dostępność adresów URL pisanych wielkimi i małymi literami
- Dostępność strony z rozszerzeniami plików takimi jak .html, .htm, .php, .aspx i bez nich.
- Parametry, które nie zmieniają zawartości strony, takie jak tagi UTM
- Identyczna zawartość pod różnymi adresami URL. Na przykład, produkt jest wymieniony w dwóch kategoriach, dostępnych pod dwoma różnymi adresami URL. Lub strona produktu dostępna z kategorią i bez kategorii w adresie URL.
- Wersje testowe witryny (domena DEV używana do rozwoju).
Aby znaleźć duplikaty stron związane z wariantami adresów URL, przetestuj adresy URL ręcznie i sprawdź kod odpowiedzi serwera dla tych wariantów adresów URL. Możesz użyć dowolnego narzędzia do sprawdzania kodów odpowiedzi serwera, takiego jak https://httpstatus.io/. Wprowadź warianty adresów URL i sprawdź ich dostępność.

Source: httpstatus.io/ website + test of a client’s website
Aby rozwiązać problemy z odmianami HTTP/HTTPS, www/bez www, z ukośnikiem/bez ukośnika, dużymi/małymi literami i dostępnością stron z rozszerzeniami takimi jak .html, .htm, .php, .aspx i bez nich, konieczne jest skonfigurowanie przekierowania 301 do preferowanej wersji. W przypadku znalezienia duplikatów z powodu dostępności identycznych treści poprzez dodanie lub usunięcie części adresu URL (na przykład produkt jest dostępny w dwóch kategoriach), najlepiej jest ponownie przeanalizować strukturę adresów URL i strukturę witryny. W przypadku UTM i innych parametrów rozwiązaniem może być również kanonizacja. Należy jednak pamiętać, że Google traktuje tag kanoniczny jako zalecenie, a ostateczna decyzja o wyborze adresu URL należy do Google. Jeśli testowa wersja witryny zostanie znaleziona w indeksie Google, powinna zostać zablokowana przed indeksowaniem, a prośba o jej usunięcie powinna zostać wysłana za pośrednictwem Google Search Console.
Rozwiązywanie częściowych duplikatów stron
Częściowe duplikaty stron występują, gdy dwie lub więcej stron w witrynie zawiera bardzo podobną, ale nie całkowicie identyczną zawartość. Najczęstsze rodzaje częściowych duplikatów to:
- Sortowanie stron
- Strony filtrowania
- Strony paginacji
- Strony z podobnymi produktami (np. produkty różnią się tylko kolorem)
- Wiele wersji witryny w tym samym języku, ale dla różnych regionów (np. trzy angielskie witryny dla USA, Wielkiej Brytanii i Australii).
Oczywiście każda witryna jest wyjątkowa, a podczas audytu technicznego można zidentyfikować inne przypadki zduplikowanej treści, które wymagają konkretnych rozwiązań. Powyższe przykłady są jednak najbardziej powszechne. Częściowe duplikaty są zwykle znajdowane podczas procesu indeksowania witryny przez różne roboty indeksujące. Będą one miały powtarzające się parametry i mogą mieć ten sam tytuł i H1, co główne strony kategorii. Aby wyeliminować częściowe duplikaty, nie można ustawić przekierowania, ponieważ strony te są potrzebne do funkcjonalności witryny. Poniżej omówimy metody radzenia sobie z częściowymi duplikatami.
Sortowanie i filtrowanie stron
Strony te można zablokować przed indeksowaniem w pliku robots.txt, chociaż może to zostać zignorowane przez Google, zwłaszcza jeśli linki wskazują na te strony. Można je również zablokować za pomocą dyrektywy <meta name=”robots” content=”noindex, nofollow” />, która uniemożliwi indeksowanie tych stron, ale nie powie Google, że nie powinny być indeksowane. Najlepszym podejściem w tym przypadku jest użycie JavaScript do aktualizacji treści na stronie, gdy użytkownik zastosuje sortowanie lub filtry, bez generowania dodatkowych adresów URL i linków do stron filtrowania lub sortowania.
Warianty produktów dostępne pod różnymi adresami URL
W idealnej sytuacji wszystkie warianty produktów powinny być połączone na jednej stronie, gdzie użytkownik może wybrać żądany kolor lub rozmiar bez zmiany adresu URL za pomocą JavaScript. Jeśli jednak dla każdego wariantu używana jest osobna strona, należy określić link kanoniczny do głównej strony produktu. Jednak, jak wspomniano wcześniej, Google może zignorować link kanoniczny ustawiony przez użytkownika.
Strony paginacji
Strony paginacji nie powinny być blokowane przed indeksowaniem. Aby upewnić się, że Google uważa pierwszą stronę kategorii za główną:
- Uwzględnij tylko pierwszą stronę w pliku sitemap.xml.
- Dodaj link do głównej strony kategorii na wszystkich stronach paginacji.
- Dodaj numery stron do tytułu i H1 stron paginacji. Na przykład „Białe koszule – strona 2”.
Strony dostępne w jednym języku, ale dla różnych regionów
W takim przypadku należy użyć atrybutów Hreflang. Służą one do informowania wyszukiwarek, która wersja językowa i regionalna strony internetowej powinna być wyświetlana użytkownikom w oparciu o ich preferencje językowe i lokalizację. Istnieje kilka sposobów implementacji atrybutów Hreflang:
- W nagłówkach HTTP
- Poprzez znaczniki w sekcji <head>
- Poprzez znaczniki w sitemap.xml
Najłatwiejszą metodą implementacji są tagi w sekcji <head>. Istnieją zasady, które powinny spełniać atrybuty hreflang zaimplementowane za pomocą tagów w sekcji <head>:
-
- Atrybut powinien mieć następujący format: <link rel=”alternate” hreflang=”lang_code_country_code” href=”url-of-page” />
- Kody języka i kraju powinny być prawidłowe. Aby wybrać prawidłowy kod dla każdej mutacji językowej, zobacz tę stronę.
- Każda wersja językowa musi wymieniać siebie oraz wszystkie inne wersje językowe w swoich atrybutach hreflang. Oznacza to, że każda strona musi mieć taką samą liczbę atrybutów hreflang
- Linki w atrybutach hreflang powinny być bezwzględne i indeksowalne.
Przykładowy kod: <link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”en-us” /> <link rel=”alternate” href=”https://example.com/en-gb/page” hreflang=”en-gb” /> <link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”x-default” />
Sprawdź tytuły, h1, h2 i opisy pod kątem duplikatów
Chociaż tytuły, opisy i nagłówki H1-H6 są związane z SEO na stronie, ich analiza w ramach audytu technicznego może być przydatna do wykrywania duplikatów. Do ich analizy można użyć dowolnego crawlera, który zbiera te znaczniki. Po znalezieniu zduplikowanych tytułów, znaczników H1-H6 i opisów należy przeanalizować dane strony i zidentyfikować przyczynę duplikacji. Może to być spowodowane dostępnością witryny zarówno przez HTTP, jak i HTTPS, duplikacją głównych tagów kategorii na stronach filtrów lub po prostu ludzkim błędem, w którym te tagi zostały nieprawidłowo wypełnione.
Optymalizacja atrybutów alt dla obrazów
Atrybuty alt to atrybut HTML używany wewnątrz znacznika <img> w następujący sposób: <img src=”image.jpg” alt=” Opis obrazu”>. Jego głównym celem jest dostarczenie tekstowego opisu zawartości obrazu. Tekst ten jest wyświetlany, jeśli obraz nie zostanie załadowany i jest odczytywany na głos przez czytniki ekranu, aby pomóc użytkownikom niedowidzącym. Prawidłowy, opisowy tekst alternatywny może pomóc obrazom w rankingu wyszukiwania obrazów i poprawić ogólną trafność strony. Jeśli masz witrynę z dużą ilością treści wizualnych, optymalizacja atrybutów alt jest ważniejszym krokiem niż w przypadku klasycznych witryn, które opierają się na treści tekstowej. Wiele robotów indeksujących, takich jak Screaming Frog, Ahrefs, SemRush itp. analizuje atrybuty alt i tam można uzyskać dane o brakujących lub pustych atrybutach alt. Możesz przeczytać więcej o tworzeniu opisowych atrybutów alt w oficjalnych dokumentach Google.
Szybkość witryny, mobilność i łatwość obsługi
Używaj protokołu HTTPs
Korzystanie z bezpiecznego protokołu HTTPS jest niezbędne do zapewnienia bezpieczeństwa transmisji danych między użytkownikiem a serwerem. Nie tylko zwiększa zaufanie użytkowników, ale także ma pozytywny wpływ na SEO. Aby sprawdzić obecność protokołu HTTPS, wystarczy spojrzeć na pasek adresu przeglądarki – powinna pojawić się ikona kłódki. W celu przeprowadzenia szczegółowej analizy można skorzystać z usługi SSL Labs, która dostarczy pełny raport na temat stanu certyfikatu SSL i zidentyfikuje wszelkie potencjalne problemy. Ważne jest również, aby upewnić się, że nie ma mieszanych treści – zasobów HTTP na stronach HTTPS. Do tej analizy można użyć raportu HTTPS w Google Search Console, który pokaże adresy URL zawierające zarówno HTTP, jak i HTTPS.

Source: Search Console
Źródło: Search Console naszego klienta
Ulepsz Core Web Vitals
Core Web Vitals to zestaw wskaźników zaproponowanych przez Google w celu oceny jakości doświadczenia użytkownika na stronie internetowej. Wskaźniki te koncentrują się na szybkości ładowania, interaktywności i stabilności wizualnej treści na stronie. Obejmują one trzy kluczowe wskaźniki:
Metryka | Opis | Wartość optymalna |
---|---|---|
Largest Contentful Paint (LCP) | Mierzy czas ładowania największego widocznego elementu na stronie (np. obrazu lub tekstu). | Mniej niż 2,5 sekundy |
Opóźnienie pierwszego wejścia (FID) | Mierzy czas reakcji strony na pierwszą interakcję użytkownika (np. kliknięcie przycisku lub łącza). | Mniej niż 100 milisekund |
Cumulative Layout Shift (CLS) | Ocenia stabilność wizualną strony, tj. jak bardzo elementy przesuwają się podczas ładowania strony. | Mniej niż 0,1 |
Dane zebrane od rzeczywistych użytkowników można wyświetlić w raporcie Search Console „Core web vitals” (dane zagregowane) lub w PageSpeed Insights (dla poszczególnych testów). Podczas pracy nad Core Web Vitals należy pamiętać, że trzeba zdefiniować problemy, które mają duży wpływ na metryki CWV. Na przykład, podczas optymalizacji LCP, należy określić, który z 4 aspektów (TTFB, Load Delay, Load Time lub Render delay) ma największy wpływ na wysoki wynik LCP. Na poniższym przykładzie widać, że nie musimy skupiać się na optymalizacji TTFB lub Load Time. Zamiast tego możemy włożyć całą naszą energię w poprawę Load Delay, a następnie Render Delay.

Source: pagespeed.web.dev
Źródło: https://pagespeed.web.dev/ – test stronynike.com (tylko dla przykładu). Domena jest zamazana
Upewnij się, że Twoja witryna jest przyjazna dla urządzeń mobilnych
Przyjazność dla urządzeń mobilnych stała się kluczowym czynnikiem od 2018 roku, kiedy to Google przeszedł na podejście indeksowania mobile-first. Oznacza to, że Google używa teraz przede wszystkim mobilnej wersji witryny do rankingu i indeksowania, a nie wersji na komputery stacjonarne. W Google Search Console możesz przetestować swoje strony, klikając „Testuj adres URL na żywo” w narzędziu do sprawdzania adresów URL i zobaczyć, jak widzi je Googlebot-Mobile.
Kompresja obrazów
Optymalizacja obrazów mająca na celu ich kompresję bez utraty jakości pomaga przyspieszyć ładowanie witryny, zwłaszcza jeśli na stronach znajduje się dużo treści graficznych. Do kompresji obrazów można użyć narzędzi online, takich jak TinyPNG lub Squoosh. Warto również sprawdzić, czy używane są nowoczesne formaty obrazów, takie jak WebP, ponieważ mogą one znacznie zmniejszyć rozmiar pliku.
Używaj CDN dla międzynarodowych stron internetowych
Korzystanie z sieci CDN ma sens, jeśli witryna obsługuje wiele odległych geograficznie regionów. Sieć CDN (Content Delivery Network) dystrybuuje zawartość witryny na serwerach znajdujących się bliżej użytkowników, zmniejszając opóźnienia podczas ładowania. Możesz sprawdzić użycie CDN, sprawdzając nagłówki żądań HTTP w narzędziach programistycznych przeglądarki (karta Sieć), gdzie mogą pojawić się odniesienia do dostawcy CDN, takiego jak Cloudflare lub Akamai. Istnieją również narzędzia online do testowania CDN. Konfiguracja CDN odbywa się zazwyczaj poprzez panel hostingowy lub CMS. Buforowanie Buforowanie pozwala przeglądarkom i serwerom proxy przechowywać kopie zasobów, zmniejszając obciążenie serwera i przyspieszając ładowanie przy kolejnych wizytach. Poprawność buforowania można sprawdzić w narzędziach deweloperskich przeglądarki – w sekcji Sieć należy przyjrzeć się nagłówkom Cache-Control, Expires i ETag. Google PageSpeed Insights również zawiera zalecenia dotyczące buforowania. Ważne jest, aby zasoby statyczne (obrazy, skrypty, style) miały odpowiednie ustawienia buforowania, a serwer powinien mieć skonfigurowane odpowiednie reguły (np. w .htaccess lub konfiguracji nginx). Aby sprawdzić buforowanie, można skorzystać z usług online, takich jak GiftOfSpeed.
Podsumowanie
Audyt techniczny strony internetowej nie jest jednorazową procedurą, ale ciągłym procesem, który wymaga regularnego zwracania uwagi na czynniki techniczne, które mogą mieć wpływ na jej wydajność i widoczność. Ponieważ każda witryna jest wyjątkowa, konkretny cel i częstotliwość kontroli będą się różnić. Ta lista kontrolna do technicznego audytu SEO pomoże ci upewnić się, że nie zapomniałeś o niczym ważnym.