Indice dei contenuti

Condividi!
Indice dei contenuti
Negli ultimi giorni è circolata una notizia molto concreta per chi gestisce siti WordPress, soprattutto e-commerce: il team di Google che si occupa di crawling ha iniziato a segnalare bug direttamente ad alcuni plugin quando questi generano URL inutili e fanno “esplodere” lo spazio di pagine da scansionare.
Il caso più citato riguarda WooCommerce: i parametri “azione” tipo ?add-to-cart= risultavano tra le fonti più rilevanti di spreco di crawling. Secondo quanto riportato, WooCommerce ha recepito la segnalazione e ha rilasciato un fix rapidamente. Altri plugin, invece, sarebbero ancora senza correzioni.
Nota importante: questa non è una “Google Update” ufficiale né un dato “certificato” in senso assoluto. È un insight emerso da una fonte di settore (Search Engine Journal) che riassume quanto condiviso da Google nel contesto di un podcast e di un report interno: utile come campanello d’allarme e come spinta ad audit tecnici mirati.
Cosa sono gli “action parameters” e perché diventano un problema SEO
Gli action parameters sono parametri URL che non servono a mostrare un contenuto diverso, ma ad attivare un’azione: ad esempio ?add-to-cart=, ?add-to-wishlist=, ?action=.
Il problema è che, per un crawler, ogni combinazione di parametri può sembrare un URL nuovo. Quando i parametri si “accodano” (stack), il numero di URL cresce rapidamente (raddoppia, triplica, ecc.), creando:
- spreco di crawl budget (Googlebot visita pagine inutili)
- duplicazioni (varianti della stessa pagina)
- discovery e ricrawl più lenti sulle pagine importanti (prodotti, categorie, landing, contenuti editoriali)
Esempi tipici in contesto WooCommerce:
https://tuosito.it/?add-to-cart=123
https://tuosito.it/prodotto/nome-prodotto/?add-to-cart=123
https://tuosito.it/prodotto/nome-prodotto/?add-to-cart=123&quantity=2“Ma il crawl budget non riguarda solo siti enormi?”
È vero: in molti casi, soprattutto per siti piccoli o medi, il crawl budget non è il primo problema. Tuttavia, anche siti non giganteschi possono soffrire quando plugin o filtri generano migliaia (o milioni) di URL “spazzatura”, perché:
- Googlebot può entrare in spazi URL “quasi infiniti”
- il server può rallentare sotto pressione
- aumenti di duplicati e segnali contraddittori complicano l’indicizzazione
In pratica: magari non ti “uccide” il ranking domani, ma ti sporca l’indice, rallenta la scoperta delle pagine giuste e rende più difficile leggere i dati.
Perché WordPress è terreno fertile per questi problemi
WordPress vive di plugin. Questo è un vantaggio enorme, ma significa che:
- un plugin può generare link con parametri senza che il proprietario del sito se ne accorga
- azioni (carrello, wishlist, compare) possono finire in URL crawlable
- filtri e sort (faceted navigation) possono produrre combinazioni praticamente infinite
La parte “scomoda” è che il problema può non dipendere da te. Ma l’effetto collaterale (crawl sprecato, duplicati, indicizzazione confusa) rimane una responsabilità del sito.
Come capire se stai sprecando crawling su parametri
1) Search Console: segnali di allarme
-
Crawl stats: spike improvvisi di richieste, aumento di URL con querystring (
?), peggioramento dei tempi di risposta - Pagine / Indicizzazione: URL con parametri in crescita, duplicati o varianti simili
2) Log server (il metodo più affidabile)
Se hai accesso ai log, cerca:
- quota di richieste a URL con
? - pattern ripetitivi su parametri “azione” e filtri
- correlazione tra crawling e rallentamenti
3) Crawl interno (Screaming Frog / Sitebulb / crawler custom)
L’obiettivo è trovare da dove nasce il link: tema, pulsanti “Add to cart” in GET, plugin wishlist/compare, plugin filtri.
Soluzioni operative: approccio in 3 livelli (dal migliore al più difensivo)
Livello 1 — Fix alla fonte (la soluzione migliore)
Se un plugin genera URL “azione” crawlable, la priorità è non generarli più nel markup o nella navigazione.
- Aggiorna WooCommerce + plugin collegati (wishlist, filtri, compare, calendari, ecc.)
- Controlla il tema: molti temi trasformano “Add to cart” in link GET
- Preferisci add-to-cart via POST o AJAX invece di link indicizzabili
Livello 2 — Controllo dell’inventario URL (cosa vuoi far scansionare davvero)
Qui la domanda è: queste varianti devono davvero esistere per Google?
- decidi quali filtri devono essere indicizzabili (se stai facendo SEO su filtri “strategici”) e quali no
- riduci la proliferazione di combinazioni di filtri/sort
- evita che parametri irrilevanti (tracking interno) entrino nei link del sito
Livello 3 — Mitigazione difensiva (robots.txt + canonical)
Quando non puoi intervenire subito sul tema/plugin, puoi limitare i danni. Qui serve attenzione: una regola “troppo larga” può bloccare pagine che vuoi indicizzare.
Template robots.txt “safe” (parametri azione)
Esempio da adattare (blocca crawling su parametri azione comuni):
User-agent: *
Disallow: /*?*add-to-cart=
Disallow: /*?*add_to_cart=
Disallow: /*?*add-to-wishlist=
Disallow: /*?*add_to_wishlist=
Disallow: /*?*add-to-compare=
Disallow: /*?*add_to_compare=
Disallow: /*?*wishlist
Disallow: /*?*wc-ajax=
Disallow: /*?*quantity=
Disallow: /*?*variation_id=
Disallow: /*?*attribute_pa_Nota: robots.txt aiuta a ridurre crawling, ma non garantisce la rimozione immediata di URL già noti/indicizzati. Per quelli serve un piano di “pulizia” (vedi sotto).
Canonical coerenti
- Prodotti e categorie devono canonizzare verso la versione pulita senza parametri
- Evita canonical incoerenti sulle pagine filtrate (se non vuoi indicizzarle, spesso canonical verso la categoria base)
Flusso di pulizia: cosa fare se URL con parametri sono già indicizzati
Se hai già URL sporchi in indice, attenzione a non bloccarli subito con robots.txt: Google potrebbe non ricrawlare e quindi non aggiornare lo stato.
- Stop alla generazione interna (fix plugin/tema): così non crei nuove varianti
- Per 2–4 settimane, applica una strategia di rimozione:
- 301 da URL con parametri azione verso URL pulita (senza eseguire l’azione)
- oppure 410/404 se quelle URL non devono esistere
- oppure noindex via header solo come soluzione temporanea (se necessario)
- Dopo la discesa degli URL sporchi (monitorando Search Console), rafforza con robots.txt per prevenire ricomparsa
- Per accelerare: usa la rimozione URL in Search Console sui pattern più critici
Checklist rapida WMA (da usare in ogni e-commerce WordPress)
- Plugin e tema aggiornati (WooCommerce + wishlist/compare/filtri/calendari)
- Verifica che “Add to cart” non generi link GET indicizzabili
- Audit parametri: azione, filtri, tracking interno
- Canonical puliti e coerenti
- Robots.txt mirato sui parametri azione (solo dopo valutazione)
- Piano di pulizia per URL già indicizzati (301/410/noindex temporaneo)
- Monitoraggio crawl stats + log server
Conclusione
Il messaggio è semplice: molti problemi di crawling oggi non nascono dal sito “in sé”, ma dal layer plugin. Se un plugin genera URL inutili, Google li può scoprire e scansionare in massa prima di “capire” che non portano valore. Il risultato è spreco di crawling, duplicati e segnali sporchi.
Per un e-commerce WooCommerce, questa è una delle ottimizzazioni tecniche con il miglior rapporto impatto/tempo: pulisce l’indice, riduce sprechi e rende più affidabili i dati di Search Console.
Vuoi una verifica tecnica completa? In WMA possiamo analizzare log, pattern di parametri e struttura dei filtri, e definire una strategia “safe” che non comprometta conversioni e UX.
Fonte notizia: https://www.searchenginejournal.com/googles-crawl-team-filed-bugs-against-wordpress-plugins/566491/
Linee guida Google:









