Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. crusaders500
    3. Migliore
    C

    crusaders500

    @crusaders500

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 11
    • Post 33
    • Migliore 4
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Località piacenza Età 47
    4
    Reputazione
    34
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    I migliori post di crusaders500

    • RE: Gestire 7000 URL inutili in GSC

      Purtroppo non sono riuscito a togliere il redirect 301 meta refresh che fanno verso un'altra pagina. Però sul sito non esistono più

      postato in SEO
      C
      crusaders500
    • Gestire 7000 URL inutili in GSC

      Buongiorno,
      mi trovo nella situazione di avere circa 7000 pagine PHP su un sito, completamente inutili, che attualmente eseguono un redirect 301 verso altre pagine. Ho già corretto l'errore che causava questi redirect, quindi ora quelle URL non esistono più.
      GSC le classifica come "Pagina scansionata, ma attualmente non indicizzata".

      Vorrei evitare che Googlebot continui a scansionare questo enorme numero di pagine inutili e inesistenti, alleggerendo così il carico complessivo.

      Il mio dubbio è il seguente:
      devo prima rimuovere queste URL tramite lo strumento di rimozione di GSC, usando l'opzione "Rimuovi tutte le URL con questo prefisso", e solo dopo aggiungere la direttiva Disallow nel file robots.txt?
      Oppure posso eseguire entrambe le azioni contemporaneamente?

      Vi chiedo gentilmente un consiglio in merito: dato che i tempi di analisi di GSC sono piuttosto lunghi, vorrei procedere subito con la soluzione corretta, anche perché col tempo rischio di dimenticare cosa ho già fatto.

      Grazie!

      postato in SEO
      C
      crusaders500
    • RE: Gestire 7000 URL inutili in GSC

      Perfetto, hai risposto proprio al mio quesito iniziale. In pratica, ho rimosso il disallow dal file robots.txt e ho richiesto la rimozione degli URL che non sono più presenti.
      Il problema, come sai, è che con i tempi biblici di Google non si possono fare molti test... bisogna chiedere a chi ci è già passato! ^_^

      postato in SEO
      C
      crusaders500
    • RE: Gestire 7000 URL inutili in GSC

      @pioggia64 sembra che l’errore iniziale sia stato non impostare un Disallow per le pagine di ricerca (/search). Queste URL non portano valore aggiunto e, oltre a questo, hanno permesso a degli hacker di iniettare contenuti spam in quantità. È questo il motivo per cui te ne ritrovi ancora così tante indicizzate.

      Ti do il mio parere personale (poi sicuramente @kal saprà darti una soluzione ancora più precisa):
      Io agirei così:

      • Impostare un'intestazione HTTP x-robots-tag: noindex lato server per tutte le URL con pattern /search o simili, in modo da forzarne la deindicizzazione;
      • Attendere che Google scansioni e rimuova le pagine;
      • Solo quando queste URL saranno sparite da Google, allora procederei a bloccarle via robots.txt con un Disallow, per evitare che vengano ulteriormente scansionate in futuro.
        In questo modo non rischi che URL indicizzate restino intrappolate nei risultati per mesi solo perché Google non può più accedervi per rimuoverle.
      postato in SEO
      C
      crusaders500