- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Rischio Penalizzazione Contenuti Duplicati
-
Rischio Penalizzazione Contenuti Duplicati
Buongiorno,
per scelte aziendali il nuovo sito web presenta delle pagine con il medesimo contenuto (duplicato) di altre anche se con percorso (briciole di pane) e URL diversi
Come posso fare per non rischiare penalizzazioni da parte del motore di ricerca?
Avrei pensato: o limitare con il file Robots.txt a tutte le pagine duplicate (quindi in pratica non farle indicizzare) oppure utilizzare l'URL Canonical....quale delle due soluzioni pensate sia meglio? Oppure avete qualche altra strada da indicarmi?
Grazie per la collaborazione
-
Ciao alfa038,
L'ideale sarebbe non generare proprio le pagine con contenuto uguale oppure URL diverso.
Nel tuo caso puoi tranquillamente utilizzare il Rel Canonical ;).
-
Ciao Alpha, quoto Gibbo.
Il robots.txt va usato solo quando non ci sono altre soluzioni, oppure in situazioni di emergenza per uscire da penalizzazioni, oppure per evitare l'occhio indiscreto dei motori.
-
Ho sempre fatto un uso massiccio del robots.txt per eliminare il problema dei contenuti duplicati, sebbene abbia sentito vari esperti che dicano di non farlo, e non ho mai riscontrato problemi, anzi...