Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Rischio Penalizzazione Contenuti Duplicati
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • A
      alfa038 User Attivo • ultima modifica di

      Rischio Penalizzazione Contenuti Duplicati

      Buongiorno,

      per scelte aziendali il nuovo sito web presenta delle pagine con il medesimo contenuto (duplicato) di altre anche se con percorso (briciole di pane) e URL diversi

      Come posso fare per non rischiare penalizzazioni da parte del motore di ricerca?

      Avrei pensato: o limitare con il file Robots.txt a tutte le pagine duplicate (quindi in pratica non farle indicizzare) oppure utilizzare l'URL Canonical....quale delle due soluzioni pensate sia meglio? Oppure avete qualche altra strada da indicarmi?

      Grazie per la collaborazione

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • gibbo89
        gibbo89 Super User • ultima modifica di

        Ciao alfa038,

        L'ideale sarebbe non generare proprio le pagine con contenuto uguale oppure URL diverso.
        Nel tuo caso puoi tranquillamente utilizzare il Rel Canonical ;).

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • W
          webmaster70 Super User • ultima modifica di

          Ciao Alpha, quoto Gibbo.

          Il robots.txt va usato solo quando non ci sono altre soluzioni, oppure in situazioni di emergenza per uscire da penalizzazioni, oppure per evitare l'occhio indiscreto dei motori.

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • B
            bluemountains User • ultima modifica di

            Ho sempre fatto un uso massiccio del robots.txt per eliminare il problema dei contenuti duplicati, sebbene abbia sentito vari esperti che dicano di non farlo, e non ho mai riscontrato problemi, anzi...

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            Caricamento altri post
            Rispondi
            • Topic risposta
            Effettua l'accesso per rispondere
            • Da Vecchi a Nuovi
            • Da Nuovi a Vecchi
            • Più Voti