Purtroppo non sono riuscito a togliere il redirect 301 meta refresh che fanno verso un'altra pagina. Però sul sito non esistono più
- Home
- crusaders500
- Migliore
crusaders500
@crusaders500
I migliori post di crusaders500
-
RE: Gestire 7000 URL inutili in GSC
-
Gestire 7000 URL inutili in GSC
Buongiorno,
mi trovo nella situazione di avere circa 7000 pagine PHP su un sito, completamente inutili, che attualmente eseguono un redirect 301 verso altre pagine. Ho già corretto l'errore che causava questi redirect, quindi ora quelle URL non esistono più.
GSC le classifica come "Pagina scansionata, ma attualmente non indicizzata".Vorrei evitare che Googlebot continui a scansionare questo enorme numero di pagine inutili e inesistenti, alleggerendo così il carico complessivo.
Il mio dubbio è il seguente:
devo prima rimuovere queste URL tramite lo strumento di rimozione di GSC, usando l'opzione "Rimuovi tutte le URL con questo prefisso", e solo dopo aggiungere la direttiva Disallow nel file robots.txt?
Oppure posso eseguire entrambe le azioni contemporaneamente?Vi chiedo gentilmente un consiglio in merito: dato che i tempi di analisi di GSC sono piuttosto lunghi, vorrei procedere subito con la soluzione corretta, anche perché col tempo rischio di dimenticare cosa ho già fatto.
Grazie!
-
RE: Gestire 7000 URL inutili in GSC
Perfetto, hai risposto proprio al mio quesito iniziale. In pratica, ho rimosso il disallow dal file robots.txt e ho richiesto la rimozione degli URL che non sono più presenti.
Il problema, come sai, è che con i tempi biblici di Google non si possono fare molti test... bisogna chiedere a chi ci è già passato! ^_^ -
RE: Gestire 7000 URL inutili in GSC
@pioggia64 sembra che l’errore iniziale sia stato non impostare un Disallow per le pagine di ricerca (/search). Queste URL non portano valore aggiunto e, oltre a questo, hanno permesso a degli hacker di iniettare contenuti spam in quantità. È questo il motivo per cui te ne ritrovi ancora così tante indicizzate.
Ti do il mio parere personale (poi sicuramente @kal saprà darti una soluzione ancora più precisa):
Io agirei così:- Impostare un'intestazione HTTP x-robots-tag: noindex lato server per tutte le URL con pattern /search o simili, in modo da forzarne la deindicizzazione;
- Attendere che Google scansioni e rimuova le pagine;
- Solo quando queste URL saranno sparite da Google, allora procederei a bloccarle via robots.txt con un Disallow, per evitare che vengano ulteriormente scansionate in futuro.
In questo modo non rischi che URL indicizzate restino intrappolate nei risultati per mesi solo perché Google non può più accedervi per rimuoverle.