Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Deindicizzazione sito staging duplicato
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • F
      fab User • ultima modifica di

      Deindicizzazione sito staging duplicato

      Ciao a tutti,

      ho un sito, https://www.nomesito.com, e mi sono accorto che la versione in staging dello stesso, http://staging.nomesito.com, è stata erroneamente indicizzata. Ho quindi un problema di contenuti duplicati indicizzati, essendo sito ufficiale e sito in staging fondamentalmente identici.

      Per risolvere, ho per ora inserito la direttiva ?Disallow: /? in http://staging.nomesito.com/robots.txt e ho aggiunto e validato la proprietà ?http://staging.nomesito.com? su Search Console. Ora ho intenzione di visitare la pagina https://www.google.com/webmasters/tools/url-removal, selezionare la proprietà ?http://staging.nomesito.com? e richiedere la rimozione dell?intero sottodominio.

      La mia domanda è: mi confermate che così facendo non corro alcun rischio di deindicizzazione del sito ufficiale https://www.nomesito.com? Credo sia così, ma vorrei una conferma, per maggior sicurezza.

      Grazie,
      Fab

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • alessandro_dandrea
        alessandro_dandrea User Attivo • ultima modifica di

        Ciao,

        Io metterei in noindex l'intero sito di sviluppo, così non devi nemmeno preoccuparti del robots o di agire tramite GSC.

        Se ne hai creato la proprietà, puoi verificare la deindicizzazione direttamente da lì.

        Peraltro è anche la nuova politica adottata da Wordpress, se non ricordo male.

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • F
          fab User • ultima modifica di

          Grazie aledandrea, avevo valutato in effetti questa possibilità, che scongiura ogni possibile rischio anche se richiede un po' più tempo per la completa rimozione dalle serp delle pagine dello staging già indicizzate.

          Ciao,
          Fab

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • S
            screzzi User • ultima modifica di

            Ciao Fab,
            un'altra idea potrebbe essere quella di mettere i canonical del sito in staging verso le pagine del sito in produzione.
            Altrimenti anche l'idea di aledandrea è sicuramente di facile implementazione e dal risultato assicurato.

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • sermatica
              sermatica Moderatore • ultima modifica di

              Ciao
              io quando faccio copie del sito le metto visibili solo a me abilitando da htaccess solo il mio Ip. Inoltre metto disallow sul robots.txt e metto tutto in noindex. Ti consiglio di fare questo e null'altro, dovrebbe risolversi da solo.

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • alessandro_dandrea
                alessandro_dandrea User Attivo • ultima modifica di

                @Sermatica said:

                noltre metto disallow sul robots.txt e metto tutto in noindex.
                Ciao Sermatica,
                Così facendo però il bot non dovrebbe leggere il noindex, perché gli viene bloccata la possibilità di leggere la pagina.

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • sermatica
                  sermatica Moderatore • ultima modifica di

                  Ciao Andrea,
                  confermo, infatti è una doppia sicurezza per evitare situazioni spiacevoli come quella sopra.

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • alessandro_dandrea
                    alessandro_dandrea User Attivo • ultima modifica di

                    @Sermatica said:

                    Ciao Andrea,
                    confermo, infatti è una doppia sicurezza per evitare situazioni spiacevoli come quella sopra.

                    Ciao Sermatica, no aspetta non mi sono spiegato (o non ho capito la risposta).

                    Intendevo dire che, mettendo in disallow una pagina, Google non potrebbe leggere il noindex e quindi la metterebbe in SERP.

                    Questo significa che, se metti in disallow il sito, il noindex viene ignorato perché G non lo può proprio leggere. 🙂

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • sermatica
                      sermatica Moderatore • ultima modifica di

                      Ciao ok ora ho capito. Grazie

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      Caricamento altri post
                      Rispondi
                      • Topic risposta
                      Effettua l'accesso per rispondere
                      • Da Vecchi a Nuovi
                      • Da Nuovi a Vecchi
                      • Più Voti