• User

    Eliminare alcuni link contenuti nel motore di ricerca

    Salve a tutti!
    a seguito di diversi cambiamenti che ho apportato nel mio sito, adesso risultano centinaia di link pagine che non vengono più trovate sul mio sito. Con santa pazienza ho aggiunto i redirect 301 alle nuove pagine ma guardando le statistiche di Google risultano ancora un sacco di errori di scansione del tipo:

    component/content/33-application-server/47-configuration-.html?start=1

    Questi link contengono indicazioni sul numero di pagine dell' articolo (?start=1) tuttavia la redirect con questo parametro nella URL non funziona e restituiscono 404 Page not found

    Mi posso sbarazzare di tutti questi errori di scansione mettendo questi link nel file robots.txt ? (Purtroppo definire una redirect per ogni sottopagina di un articolo è inpensabile, sarebbero almeno un migliaia di redirect da inserire)

    Grazie 1000
    Francesco


  • Moderatore

    Ciao FrancescoRM,
    si, puoi usare il robots.txt con il seguente comando: Disallow: /*? e poi dal GWT puoi eliminare i vari url che ti danno errore.

    Ciao
    Enea


  • User

    Ciao,
    grazie della risposta. Solo per essere sicuro di aver capito bene: mettendo questa direttiva, dovrei ottenere che nelle ricerche, Google non restituisce più quelle URL "sporche" giusto ? ma dovrebbe invece segnalare solo pagine senza quei parametri in coda.
    Fermo restando che se qualche utente ha fatto un bookmark a quegli URL, non c'e' niente da fare, andrà comunque in error 404.
    Sono sulla straa giusta ? 🙂
    Grazie ancora
    Francesco


  • Moderatore

    Esatto sei sulla strada giusta, ricorda che il GWT ha bisogno di diverso tempo per aggiornare i dati, a volte anche mesi.

    Ciao
    Enea