Techniczny Audyt Pamięci: Czy Twój Shopify Marnuje Budżet Crawlera? Diagnoza zamiast Kodowania
21.12.2025#audyt seo

Techniczny Audyt Pamięci: Czy Twój Shopify Marnuje Budżet Crawlera? Diagnoza zamiast Kodowania

Arkadiusz Kotliński

Ekspert SEO
Spis tresci

    60-80% stron w indeksie typowego sklepu Shopify to smieci. Filtry, tagi, paginacja, parametry UTM - wszystko to pozera budzet crawlera, podczas gdy Twoje produkty z najwyzszym potencjalem konwersji czekaja w kolejce. Diagnoza architektury indeksowania to pierwszy krok do odzyskania kontroli nad tym, co Google widzi w Twoim sklepie.

    Problem "smieciowego indeksu" w e-commerce

    Kazdy sklep internetowy generuje setki, czasem tysiace URL-i, ktore nigdy nie powinny trafic do indeksu Google. Problem w tym, ze Googlebot nie odroznia strony produktu za 500 zl od strony filtra "kolor=czerwony&rozmiar=XL" - obie traktuje jako osobne dokumenty wymagajace crawlowania i oceny.

    "Googlebot ma ograniczony budzet na crawlowanie kazdej witryny. Strony o niskiej jakosci moga negatywnie wplywac na crawlowanie i indeksowanie calej witryny." - Google Search Central Documentation

    Tlumaczenie dla wlasciciela sklepu: Google przydziela Twojemu sklepowi okreslona liczbe "wizyt" dziennie. Jesli 70% tych wizyt marnujesz na strony filtrow i paginacji, Twoje nowe produkty moga czekac tygodniami na zaindeksowanie. Co gorsza - im wiecej "smieci" w indeksie, tym nizsza ogolna ocena jakosci Twojej domeny.

    Wdrozenie - case study Uniformsy.pl: Przed optymalizacja sklep mial 8500 stron w indeksie, z czego tylko 1200 to byly faktyczne produkty. Po wdrozeniu strategii canonical i noindex dla filtrow, indeks zmniejszyl sie do 2100 stron. Efekt? Czas do zaindeksowania nowych produktow spadl z 14 do 3 dni, a wyswietlenia w GSC wzrosly o 31% w ciagu 2 miesiecy.

    Typ strony % indeksu (przed) % indeksu (po) Wartosc SEO
    Produkty 14% 57% Wysoka - konwersje
    Kolekcje glowne 6% 24% Wysoka - kategorie
    Filtry/tagi 52% 0% Zerowa - duplikaty
    Paginacja 18% 12% Niska - tylko crawl
    Inne (policy, koszyk) 10% 7% Zerowa - utility

    Synergia Merchant Center i Search - dane ktorych nie widzisz w GSC

    Wiekszosz wlascicieli sklepow traktuje Google Search Console i Google Merchant Center jako osobne narzedzia. To blad. Dopiero polaczenie danych z obu zrodel pokazuje pelny obraz: ktore produkty generuja ruch organiczny, a ktore sprzedaz przez Shopping.

    "Dane o skutecznosci produktow w Merchant Center mozna laczyc z danymi Search Console, aby zidentyfikowac produkty o wysokim potencjale konwersji, ktore wymagaja lepszej widocznosci organicznej." - Google Merchant Center Help

    Tlumaczenie dla wlasciciela sklepu: Jesli produkt swietnie sprzedaje sie przez Google Shopping (widoczne w Merchant Center), ale ma slabe wyniki organiczne (widoczne w GSC), to znak, ze warto zainwestowac w jego optymalizacje SEO. I odwrotnie - produkty z wysokim CTR organicznym, ale niskimi konwersjami w Shopping, moga miec problem z feedem produktowym lub cena.

    Wdrozenie - case study Azardi.pl: Analiza krzyzowa Merchant Center i GSC pokazala 47 produktow, ktore mialy wysoki ROAS w Shopping (srednia 4.2), ale zerowe wyswietlenia organiczne. Po dodaniu rozszerzonych opisow i Schema Product, 23 z nich zaczely rankować na pierwszej stronie. CTR organiczny calego sklepu wzrosl o 40%, a koszt pozyskania klienta spadl o 22% dzieki dywersyfikacji zrodel ruchu.

    Zrodlo danych Co pokazuje Jak wykorzystac
    GSC - wyswietlenia Widocznosc organiczna produktow Priorytetyzacja optymalizacji tresci
    GSC - CTR Atrakcyjnosc snippetow Poprawa title/meta description
    GMC - klikniecia Skutecznosc feedu produktowego Optymalizacja atrybutow produktu
    GMC - konwersje Produkty o najwyzszym ROAS Fokus budżetu crawlera na winners
    GMC + GSC razem Luki w widocznosci top produktow Strategia omnichannel SEO

    Diagnoza to proces, a nie plik .txt

    Wielu wlascicieli sklepow oczekuje, ze audyt SEO to dokument z gotowym kodem do wklejenia. "Daj mi robots.txt i sitemap.xml, a reszta to moja sprawa." Problem w tym, ze architektura Shopify Liquid jest specyficzna - jeden snippet moze wplywac na 500 stron, a zle ustawiony canonical potrafi wyzerowac ruch w ciagu tygodnia.

    "Zmiany w plikach theme Shopify wymagaja zrozumienia kaskadowego dzialania Liquid. Snippet renderowany w layout/theme.liquid wplywa na kazda strone w sklepie." - Shopify Theme Architecture Documentation

    Tlumaczenie dla wlasciciela sklepu: Gotowy kod to jak recepta bez diagnozy. Mozesz wiedziec, ze potrzebujesz noindex na filtrach, ale w ktorym pliku to ustawic? W collection.liquid? W theme.liquid? A moze w snippecie, ktory juz istnieje i nadpisuje Twoje zmiany? Bez mapowania architektury Liquid, kazda zmiana to strzal w ciemno.

    Co dostajesz w Pakiecie E-commerce ASEO24:

    • Mapa architektury Liquid - diagram zaleznosci miedzy plikami theme, ktore wplywaja na indeksowanie
    • Lista instrukcji dla dewelopera - precyzyjne wskazowki gdzie i co zmienic, z uzasadnieniem kazdej decyzji
    • Priorytety wdrozenia - co zrobic najpierw, zeby zobaczyc efekty w 2-4 tygodnie
    • Weryfikacja po wdrozeniu - sprawdzamy czy zmiany dzialaja poprawnie i nie zepsuly czegos innego
    Element audytu Co analizujemy Output dla klienta
    Robots.txt Blokady crawlera, Allow/Disallow Zoptymalizowany plik + uzasadnienie
    Sitemap.xml Kompletnosc, priorytety, bledne URL-e Lista zmian + automatyzacja
    Canonical tags Duplikaty, self-referencing, bledy Mapa canonicali + snippet Liquid
    Meta robots Index/noindex na poziomie stron Reguly dla typow stron
    Struktura URL Parametry, filtry, paginacja Strategia obslugi parametrow
    Internal linking Rozklad link juice, orphan pages Diagram linkowania + poprawki

    Crawl budget w liczbach - ile Google naprawde crawluje?

    Male i srednie sklepy Shopify czesto nie zdaja sobie sprawy, jak ograniczony jest ich budzet crawlera. To nie jest kwestia "Google nas nie lubi" - to matematyka zasobow.

    Wielkosc sklepu Stron w indeksie Crawl/dzien (srednia) Czas pelnego crawla
    Maly (do 500 produktow) 800-2000 10-50 stron 16-200 dni
    Sredni (500-2000 produktow) 3000-8000 50-200 stron 15-160 dni
    Duzy (2000+ produktow) 10000+ 200-1000 stron 10-50 dni

    Co to oznacza w praktyce? Jesli masz 500 produktow, ale 2000 stron w indeksie (bo filtry, tagi, paginacja), Google moze potrzebowac 40 dni zeby przejsc przez caly sklep. Jesli w tym czasie dodasz 50 nowych produktow, czesc z nich moze czekac na indeksacje kolejne tygodnie.

    Wdrozenie - efekt czyszczenia indeksu: Po usunieciu smieciowych stron z indeksu (noindex + usuwanie z sitemapy), typowy sklep widzi:

    • -40% do -70% stron w indeksie - mniej, ale lepszych
    • +50% do +100% crawli na produkty - bot skupia sie na tym, co wazne
    • 2-5x szybsze indeksowanie nowosci - nowe produkty widoczne w dniach, nie tygodniach
    • +15% do +35% wyswietlen organicznych - efekt widoczny w 4-8 tygodni

    Komentarz autora: Przez 10 lat pracy z e-commerce nauczylem sie jednego - wlasciciele sklepow chca gotowych rozwiazan, ale Shopify nie jest WordPressem z wtyczkami. Kazdy theme jest inny, kazdy snippet moze cos zepsuc. Dlatego w ASEO24 dajemy diagnoze z instrukcjami, nie gotowy kod. Bo zly kod wklejony w zle miejsce potrafi wyzerowac ruch szybciej, niz zbudowales go przez lata.

    Uruchom pelna moc swojego sklepu

    Pakiet E-commerce to kompleksowa diagnoza architektury indeksowania, synergia danych Merchant Center i GSC, oraz precyzyjne instrukcje dla Twojego dewelopera. Zacznij od audytu - zbudujemy strategie, ktora skupi Googlebota na Twoich najlepszych produktach.

    Poznaj Pakiet E-commerce ->
    Arkadiusz Kotlinski

    O autorze

    Arkadiusz Kotlinski

    CEO & Ekspert SEO w ASEO24.pl. 10+ lat doswiadczenia w pozycjonowaniu, e-commerce i digital marketingu. Specjalizuje sie w SEO technicznym, LLM Feed i strategiach wzrostu dla sklepow Shopify.

    Skaluj Biznes

    Potrzebujesz wsparcia SEO?

    Umów się na bezpłatną konsultację

    Zaczynamy!

    Kontakt

    30 dni gwarancji