- Vaša košarica je trenutno prazna
Spletne trgovine in filtri: magnet za spletne pajke

Filtri v spletnih trgovinah so za uporabnike izjemno koristni, saj omogočajo hitro in natančno iskanje izdelkov po barvi, velikosti, ceni, blagovni znamki in drugih lastnostih. Na ta način izboljšujejo uporabniško izkušnjo in povečujejo možnosti za uspešno prodajo.
Žal pa lahko filtri povzročijo tudi precej težav pri delovanju spletne trgovine in optimizaciji za iskalnike. Zaradi kombinacij filtrov se namreč ustvari ogromno število URL-jev, ki jih Google in drugi iskalniki poskušajo indeksirati. To lahko privede do začasnega nedelovanja trgovine, podvajanja vsebine, prekomerne porabe crawl proračuna in slabše vidnosti spletne trgovine med iskalnimi rezultati.
Kazalo
- Uporaba filtrov: v čem je težava?
- Osnovni ukrepi proti prekomerni indeksaciji
- Rešitev z direktivami v robots.txt
- Rešitev z direktivami v .htaccess
- Povzetek in zaključna priporočila
Uporaba filtrov: v čem je težava?
Vsaka kombinacija filtra v spletni trgovini ustvari svoj unikaten URL, pogosto z dolgimi parametri v poizvedbi, npr.:
https://shop.net/trgovina/?filter_brand=nike&filter_material=cotton&filter_discount=on
https://trgovina.com/izdelki/majice.html?oznake=13&prodajnamesta=24&product_awards=55
Kadar je kategorij izdelkov in filtrov veliko, lahko število generiranih strani naraste tudi na več tisoč. Spletni pajki iskalnikov (ang. web crawlers / spiders) te strani poskušajo obiskati, pogosto pa tudi indeksirati, kar vodi v:
- počasno delovanje ali celo nedelovanje spletne trgovine (zaradi povišane porabe strežniških virov),
- posledično slabo uporabniško izkušnjo za obiskovalce in izgubo prodaje,
- podvajanje vsebine, kar škoduje spletni optimizaciji (SEO),
- nepotrebno indeksacijo strani brez dodane vrednosti,
- zmedo pri razumevanju hierarhije strani s strani spletnih pajkov (npr. Googlebot),
- hitrejšo porabo crawl proračuna.
Crawl proračun predstavlja število strani, ki jih bo iskalnik (npr. Google) v določenem časovnem obdobju obiskal na spletnem mestu. Če se crawl proračun porabi za nepomembne URL-je (npr. kombinacije filtrov), obstaja nevarnost, da pomembne strani, kot so kategorije in izdelki, ne bodo pravočasno obiskane in indeksirane.
Osnovni ukrepi proti prekomerni indeksaciji
Težavo s prekomerno indeksacijo filtrov lahko najprej poskusimo omiliti z nekaj osnovnimi SEO rešitvami:
- Uporaba canonical oznak – vsak URL s filtri naj kaže na ujemajočo se povezavo brez filtrov.
- Primer URL-ja s filtri:
https://trgovina.com/izdelki/majice.html?oznake=13&prodajnamesta=24&product_awards=55
- Uporabimo canonical oznako:
<link rel="canonical" href="https://trgovina.com/izdelki/majice.html" />
- Primer URL-ja s filtri:
- Brez notranjih povezav do filtriranih strani – tako bodo spletni pajki URL-je s filtri težje našli.
- Izključitev URL-jev s filtri iz zemljevida strani – datoteka
sitemap.xml
naj vključuje le pomembne strani.
Kljub zgornjim ukrepom lahko pri večjih trgovinah s številnimi filtri pajki še vedno množično obiskujejo filtrirane URL-je in s tem močno vplivajo na porabo strežniških virov. V takšnih primerih je potrebna dodatna tehnična rešitev:
- manj agresivna – z direktivami v datoteki
robots.txt
, - bolj agresivna – z direktivami v datoteki
.htaccess
.
Rešitev z direktivami v robots.txt
Priporočljiv začetni ukrep je uporaba pravil v datoteki robots.txt
. Z ustreznimi direktivami lahko iskalnikom naročimo, naj določenih URL parametrov ne indeksirajo, hkrati pa jim ne preprečimo dostopa. Tako imajo boti še vedno vpogled v celotno strukturo spletnega mesta, a ne trošijo crawl proračuna na nepotrebnih kombinacijah filtrov.
Primer za WooCommerce
User-agent: *
Disallow: /*?*filter_*&filter_*
Disallow: /*?*filter_*&*shop_view=
Disallow: /*?*filter_*&*per_page=
Disallow: /*?*filter_*&*query_type_*
Disallow: /*?*query_type_*&*filter_*
Disallow: /*?*min_price=
Disallow: /*?*max_price=
Primer za Magento
User-agent: *
Disallow: /*?dir=
Disallow: /*?order=
Disallow: /*?mode=
Disallow: /*?price=
Disallow: /*?cat=
Datoteka robots.txt
se nahaja v glavni mapi spletnega mesta (ang. root directory). Na strežnik je lahko naložena ročno ali pa urejena neposredno iz administracije trgovine. V primeru trgovine WooCommerce lahko uporabimo SEO vtičnik (npr. Yoast SEO ali RankMath), medtem ko urejanje robots.txt
v Magento 2 (Adobe Commerce) prikazujejo ta navodila.
Rešitev z direktivami v .htaccess
Druga možnost je, da s pomočjo pravil v .htaccess
blokiramo dostop določenim botom (npr. Googlebotu) do URL-jev s filtri. Gre za dokaj agresiven pristop, ki spletnim pajkom v celoti preprečuje obisk strani, določenih z direktivami.
Navodila za urejanje datoteke .htaccess
so dostopna na tej povezavi.
Primer za WooCommerce
# BEGIN - Block UA & QUERY requests for WooCommerce filters and add-to-cart
<IfModule mod_rewrite.c>
RewriteEngine On
# Specify UA (User Agent) - Googlebot hammer
RewriteCond %{REQUEST_METHOD} ^(GET|POST)$
RewriteCond %{HTTP_USER_AGENT} (Googlebot) [NC]
# Specify patterns (QUERY_STRING) for filters and add-to-cart
RewriteCond %{QUERY_STRING} (add-to-cart|filter_color|filter_size|filter_brand|min_price|max_price) [NC]
# Return 429 and stop
RewriteRule "^.*$" - [R=429,L]
</IfModule>
# END - Block UA & URL QUERY requests for WooCommerce filters and add-to-cart
V zgornjih .htaccess
pravilih prilagodite 8. vrstico kode, kjer so našteti različni filtri. Zapis add-to-cart
v tej vrstici obdržite.
Primer za Magento
# BEGIN - Block UA & QUERY requests for Magento filters
<IfModule mod_rewrite.c>
RewriteEngine On
# Specify UA (User Agent) - Googlebot hammer
RewriteCond %{REQUEST_METHOD} ^(GET|POST)$
RewriteCond %{HTTP_USER_AGENT} (Googlebot) [NC]
# Specify patterns (QUERY_STRING) for filters
RewriteCond %{QUERY_STRING} (color|size|brand|price|cat|mode|order) [NC]
# Return 429 and stop
RewriteRule "^.*$" - [R=429,L]
</IfModule>
# END - Block UA & URL QUERY requests for Magento filters
V zgornjih .htaccess
pravilih ustrezno prilagodite 8. vrstico kode, kjer so našteti različni filtri.
Način blokade dostopa s .htaccess
je precej agresiven, saj crawlerju preprečuje obisk določenih strani. To pomeni, da Google do teh URL-jev sploh ne dostopa in ne vidi povezav, ki bi morda vendarle bile koristne. Rešitev sicer zmanjša obremenitev strežnika in onemogoči indeksacijo neželenih strani, a lahko hkrati povzroči izgubo pomembnih iskalnih rezultatov.
Povzetek in zaključna priporočila
Uporaba filtrov prinaša obiskovalcem spletne trgovine veliko prednosti, vendar zahteva tudi posebno pozornost. Nepravilno upravljanje filtrov namreč vodi do prekomernega indeksiranja in povečane porabe strežniških virov, kar se odraža v počasnejšem delovanju ali celo začasni nedostopnosti spletne trgovine. Pravilna konfiguracija filtrov je zato pomembna tako za hitrejše delovanje trgovine kot tudi za čistejšo indeksacijo in boljše pozicije v iskalnikih.
Če težavo odpravimo z datoteko .htaccess
, sicer dosežemo, da se neželeni URL-ji ne indeksirajo, vendar je to precej agresiven pristop, saj spletnim pajkom povsem blokiramo dostop do teh strani. Elegantnejša in dolgoročno boljša rešitev je uporaba datoteke robots.txt
, kjer z natančnimi pravili usmerimo iskalnike stran od nepotrebnih URL parametrov.
In še nasvet za konec: priporočamo vam, da v Google Search Console dodate svojo domeno (spletno trgovino), saj boste tam lahko hitro opazili, ali iskalnik Google indeksira neželene strani vašega spletnega mesta.
KOMENTIRAJTE OBJAVO
Vaš komentar je bil uspešno oddan
Komentar bo viden na strani, ko ga naši moderatorji potrdijo.