Ciao a tutti,
Sto riscontrando un innalzamento anomalo delle pagine indicizzate sul sito di un mio cliente su Google Search Console e vorrei capire come interpretare la situazione.
Il sito è un e-commerce e utilizza dei filtri con parametro query string gestiti con regola no index.
Gli unici URL con parametri in query string che vengono indicizzati sono quelli corrispondenti alle categorie con paginazione. Indicizzando le pagine 1/2/3, vengono indicizzate anche quelle con filtro attivo per rispettare la navigazione dell'utente.
Ho quindi provato a escludere queste pagine tramite il robots.txt file con un disallow.
Il risultato è stato un innalzamento anomalo delle pagine indicizzate, che Google Search Console segnala bloccate dal file robots.txt.
Sottoponendole al live test la pagina viene correttamente segnalata come non indicizzabile.
Facendo delle ricerche ho inteso che questo fenomeno è causato dalla direttiva del robots.txt che non permette la lettura della pagina, quindi non potendo leggere la direttiva noindex Google sta "riscoprendo"(?) e indicizzando queste pagine che però non può scansionare.
Avrei bisogno di capire, se qualcuno ha esperienza su un caso simile , come gestire l'indicizzazione, se è un comportamento normale e Google recepirà la modifica adeguando i report su Search Console, o se potrebbe esserci un errore nelle regola del robots.txt o un'anomali in corso.
Grazie mille in anticipo