WordPress e crawl budget: Google segnala i plugin che “sprecano” crawling (caso WooCommerce e parametri add-to-cart)

WordPress e crawl budget:
Total Views: 32

Condividi!

Indice dei contenuti

Negli ultimi giorni è circolata una notizia molto concreta per chi gestisce siti WordPress, soprattutto e-commerce: il team di Google che si occupa di crawling ha iniziato a segnalare bug direttamente ad alcuni plugin quando questi generano URL inutili e fanno “esplodere” lo spazio di pagine da scansionare.

Il caso più citato riguarda WooCommerce: i parametri “azione” tipo ?add-to-cart= risultavano tra le fonti più rilevanti di spreco di crawling. Secondo quanto riportato, WooCommerce ha recepito la segnalazione e ha rilasciato un fix rapidamente. Altri plugin, invece, sarebbero ancora senza correzioni.

Nota importante: questa non è una “Google Update” ufficiale né un dato “certificato” in senso assoluto. È un insight emerso da una fonte di settore (Search Engine Journal) che riassume quanto condiviso da Google nel contesto di un podcast e di un report interno: utile come campanello d’allarme e come spinta ad audit tecnici mirati.

Cosa sono gli “action parameters” e perché diventano un problema SEO

Gli action parameters sono parametri URL che non servono a mostrare un contenuto diverso, ma ad attivare un’azione: ad esempio ?add-to-cart=, ?add-to-wishlist=, ?action=.

Il problema è che, per un crawler, ogni combinazione di parametri può sembrare un URL nuovo. Quando i parametri si “accodano” (stack), il numero di URL cresce rapidamente (raddoppia, triplica, ecc.), creando:

  • spreco di crawl budget (Googlebot visita pagine inutili)
  • duplicazioni (varianti della stessa pagina)
  • discovery e ricrawl più lenti sulle pagine importanti (prodotti, categorie, landing, contenuti editoriali)

Esempi tipici in contesto WooCommerce:

https://tuosito.it/?add-to-cart=123
https://tuosito.it/prodotto/nome-prodotto/?add-to-cart=123
https://tuosito.it/prodotto/nome-prodotto/?add-to-cart=123&quantity=2

“Ma il crawl budget non riguarda solo siti enormi?”

È vero: in molti casi, soprattutto per siti piccoli o medi, il crawl budget non è il primo problema. Tuttavia, anche siti non giganteschi possono soffrire quando plugin o filtri generano migliaia (o milioni) di URL “spazzatura”, perché:

  • Googlebot può entrare in spazi URL “quasi infiniti”
  • il server può rallentare sotto pressione
  • aumenti di duplicati e segnali contraddittori complicano l’indicizzazione

In pratica: magari non ti “uccide” il ranking domani, ma ti sporca l’indice, rallenta la scoperta delle pagine giuste e rende più difficile leggere i dati.

Perché WordPress è terreno fertile per questi problemi

WordPress vive di plugin. Questo è un vantaggio enorme, ma significa che:

  • un plugin può generare link con parametri senza che il proprietario del sito se ne accorga
  • azioni (carrello, wishlist, compare) possono finire in URL crawlable
  • filtri e sort (faceted navigation) possono produrre combinazioni praticamente infinite

La parte “scomoda” è che il problema può non dipendere da te. Ma l’effetto collaterale (crawl sprecato, duplicati, indicizzazione confusa) rimane una responsabilità del sito.

Come capire se stai sprecando crawling su parametri

1) Search Console: segnali di allarme

  • Crawl stats: spike improvvisi di richieste, aumento di URL con querystring (?), peggioramento dei tempi di risposta
  • Pagine / Indicizzazione: URL con parametri in crescita, duplicati o varianti simili

2) Log server (il metodo più affidabile)

Se hai accesso ai log, cerca:

  • quota di richieste a URL con ?
  • pattern ripetitivi su parametri “azione” e filtri
  • correlazione tra crawling e rallentamenti

3) Crawl interno (Screaming Frog / Sitebulb / crawler custom)

L’obiettivo è trovare da dove nasce il link: tema, pulsanti “Add to cart” in GET, plugin wishlist/compare, plugin filtri.

Soluzioni operative: approccio in 3 livelli (dal migliore al più difensivo)

Livello 1 — Fix alla fonte (la soluzione migliore)

Se un plugin genera URL “azione” crawlable, la priorità è non generarli più nel markup o nella navigazione.

  • Aggiorna WooCommerce + plugin collegati (wishlist, filtri, compare, calendari, ecc.)
  • Controlla il tema: molti temi trasformano “Add to cart” in link GET
  • Preferisci add-to-cart via POST o AJAX invece di link indicizzabili

Livello 2 — Controllo dell’inventario URL (cosa vuoi far scansionare davvero)

Qui la domanda è: queste varianti devono davvero esistere per Google?

  • decidi quali filtri devono essere indicizzabili (se stai facendo SEO su filtri “strategici”) e quali no
  • riduci la proliferazione di combinazioni di filtri/sort
  • evita che parametri irrilevanti (tracking interno) entrino nei link del sito

Livello 3 — Mitigazione difensiva (robots.txt + canonical)

Quando non puoi intervenire subito sul tema/plugin, puoi limitare i danni. Qui serve attenzione: una regola “troppo larga” può bloccare pagine che vuoi indicizzare.

Template robots.txt “safe” (parametri azione)

Esempio da adattare (blocca crawling su parametri azione comuni):

User-agent: *
Disallow: /*?*add-to-cart=
Disallow: /*?*add_to_cart=
Disallow: /*?*add-to-wishlist=
Disallow: /*?*add_to_wishlist=
Disallow: /*?*add-to-compare=
Disallow: /*?*add_to_compare=
Disallow: /*?*wishlist
Disallow: /*?*wc-ajax=
Disallow: /*?*quantity=
Disallow: /*?*variation_id=
Disallow: /*?*attribute_pa_

Nota: robots.txt aiuta a ridurre crawling, ma non garantisce la rimozione immediata di URL già noti/indicizzati. Per quelli serve un piano di “pulizia” (vedi sotto).

Canonical coerenti

  • Prodotti e categorie devono canonizzare verso la versione pulita senza parametri
  • Evita canonical incoerenti sulle pagine filtrate (se non vuoi indicizzarle, spesso canonical verso la categoria base)

Flusso di pulizia: cosa fare se URL con parametri sono già indicizzati

Se hai già URL sporchi in indice, attenzione a non bloccarli subito con robots.txt: Google potrebbe non ricrawlare e quindi non aggiornare lo stato.

  1. Stop alla generazione interna (fix plugin/tema): così non crei nuove varianti
  2. Per 2–4 settimane, applica una strategia di rimozione:
    • 301 da URL con parametri azione verso URL pulita (senza eseguire l’azione)
    • oppure 410/404 se quelle URL non devono esistere
    • oppure noindex via header solo come soluzione temporanea (se necessario)
  3. Dopo la discesa degli URL sporchi (monitorando Search Console), rafforza con robots.txt per prevenire ricomparsa
  4. Per accelerare: usa la rimozione URL in Search Console sui pattern più critici

Checklist rapida WMA (da usare in ogni e-commerce WordPress)

  • Plugin e tema aggiornati (WooCommerce + wishlist/compare/filtri/calendari)
  • Verifica che “Add to cart” non generi link GET indicizzabili
  • Audit parametri: azione, filtri, tracking interno
  • Canonical puliti e coerenti
  • Robots.txt mirato sui parametri azione (solo dopo valutazione)
  • Piano di pulizia per URL già indicizzati (301/410/noindex temporaneo)
  • Monitoraggio crawl stats + log server

Conclusione

Il messaggio è semplice: molti problemi di crawling oggi non nascono dal sito “in sé”, ma dal layer plugin. Se un plugin genera URL inutili, Google li può scoprire e scansionare in massa prima di “capire” che non portano valore. Il risultato è spreco di crawling, duplicati e segnali sporchi.

Per un e-commerce WooCommerce, questa è una delle ottimizzazioni tecniche con il miglior rapporto impatto/tempo: pulisce l’indice, riduce sprechi e rende più affidabili i dati di Search Console.

Vuoi una verifica tecnica completa? In WMA possiamo analizzare log, pattern di parametri e struttura dei filtri, e definire una strategia “safe” che non comprometta conversioni e UX.

Fonte notizia: https://www.searchenginejournal.com/googles-crawl-team-filed-bugs-against-wordpress-plugins/566491/

Linee guida Google:

Crawl budget (guida Search Central)

Faceted navigation: gestione crawling di URL con filtri

Condividi questa storia, scegli tu dove!

5,4 min readPublished On: Febbraio 4th, 2026Last Updated: Febbraio 4th, 2026Categories: Indicizzazione

About the Author: Gentian

ff5b7d6c868a2a5cd5eadcd64683c6b7d013bea5796681fb0ccade6e68200bc6?s=72&d=mm&r=g
Gentian Hajdaraj, titolare di Web Marketing Aziendale, è un Lead Generation Strategist che lavora nel mondo del marketing online da oltre dieci anni. E' autore del libro: “Le Nuove Regole del Web Marketing” & "eCommerce Reload".

Post correlati

Altri articoli

Web marketing per acquisire clienti nel 2026

Quante volte, parlando con collaboratori o colleghi imprenditori, ti sei chiesto come acquisire clienti senza rincorrere l’ennesima moda digitale del momento? Se ti dicessi che oggi, nel 2026, il web marketing è cambiato profondamente – e ti offre strumenti mai visti prima – non esagererei affatto. [...]

Il Marketing 80/20: Ottieni più con meno sforzo nella tua strategia di marketing

Marketing 80/20: Massimizza i risultati concentrandoti sulle attività di maggior impatto C’è un momento (di solito tra lunedì mattina e mercoledì pomeriggio) in cui ti rendi conto di una cosa: stai facendo tante attività di marketing… ma i risultati non crescono alla stessa velocità. Pubblicazioni, newsletter, [...]

Quanto vale davvero un lead per il tuo eCommerce (oggi, con l’AI)?

Il valore di un lead è una delle metriche più sottovalutate nel marketing per eCommerce. Tutti parlano di CPL, pochi parlano di Valore Netto per Lead, e pochissimi lo calcolano in modo corretto. Eppure da quel numero dipende tutto: quanto puoi spendere sulle campagne, quanto puoi [...]

Come fare video marketing nell’era dell’AI: guida pratica

Fare video marketing oggi significa unire strategia, contenuti e distribuzione con strumenti di intelligenza artificiale che velocizzano ideazione, produzione, localizzazione e analisi. Risultato atteso: più copertura, più retention, più conversioni a parità di budget.

Post correlati