• User

    Gestire 7000 URL inutili in GSC

    Buongiorno,
    mi trovo nella situazione di avere circa 7000 pagine PHP su un sito, completamente inutili, che attualmente eseguono un redirect 301 verso altre pagine. Ho già corretto l'errore che causava questi redirect, quindi ora quelle URL non esistono più.
    GSC le classifica come "Pagina scansionata, ma attualmente non indicizzata".

    Vorrei evitare che Googlebot continui a scansionare questo enorme numero di pagine inutili e inesistenti, alleggerendo così il carico complessivo.

    Il mio dubbio è il seguente:
    devo prima rimuovere queste URL tramite lo strumento di rimozione di GSC, usando l'opzione "Rimuovi tutte le URL con questo prefisso", e solo dopo aggiungere la direttiva Disallow nel file robots.txt?
    Oppure posso eseguire entrambe le azioni contemporaneamente?

    Vi chiedo gentilmente un consiglio in merito: dato che i tempi di analisi di GSC sono piuttosto lunghi, vorrei procedere subito con la soluzione corretta, anche perché col tempo rischio di dimenticare cosa ho già fatto.

    Grazie!