- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Cerco tool per individuare contenuti duplicati
-
Usi un CMS?
-
meglio il Canonical che il noindex
-
Anche io credo che sia molto meglio il canonical del NOINDEX.
Per quanto riguara i tool, invece, io ti consiglio Siteliner.com ed un check completo completo con Seositecheckup.com
ps: copyscape qui lo do per scontato, ok?
-
Per quanto riguarda il canonical: ci sono parecchie pagine con elenchi di prodotti di che non mi interessa più far apparire nel motore, in questo caso avrebbe un senso indirizzare il canonical verso una pagina con prodotti completamente differenti? Oppure verso la home della sezione?
In questi casi non sarebbe meglio un noindex?
Anche se inizio a sospettare che il motore non veda bene improvvise sparizioni di migliaia di pagine di colpo.
-
Danilo copyscape in questo caso credo non centri molto.
Invece gli altri due che hai segnalato mi sembrano interessanti! faro qualche test. Secondo te riescono ad analizzare un sito da circa 30000 pagine?
-
siteliner (la versione "onpage" di copyspace) potrebbe esserti utile, io uso raven ma ha un limite di 10.000 pagine al giorno.
-
@kungfu said:
Per quanto riguarda il canonical: ci sono parecchie pagine con elenchi di prodotti di che non mi interessa più far apparire nel motore, in questo caso avrebbe un senso indirizzare il canonical verso una pagina con prodotti completamente differenti? Oppure verso la home della sezione?
Il canonical fà capire che i contenuti sono simili alla pagina canonica
@kungfu said:
In questi casi non sarebbe meglio un noindex?
Se gli articoli ci sono meglio un canonical, ma se nn ci sono o non sono disponibili cancella la pagina e redirect 301.
Il noindex lo metti se non vuoi che la pagina sia indicizzata ma vuoi continuare a farla esistere (es. pagina con dati sensibili)
-
@kungfu said:
Danilo copyscape in questo caso credo non centri molto.
Invece gli altri due che hai segnalato mi sembrano interessanti! faro qualche test. Secondo te riescono ad analizzare un sito da circa 30000 pagine?
Non conosco i limiti in termini di pagine di Siteliner. In ogni caso credo che non sarebbe male un'analisi effettuata attraverso più tool.
-
[...]
-
Puoi usare anche lo spider seo Screaming Frog. Effettui lo spidering di tutto il sito (sperando che non ci siano problemi di architettura per cui tutti i duplicati siano raggiungibili). Poi vai nella scheda URI e selezioni dal menu a tendina "duplicate". Ti verrà mostrato un report esportabile in cui le pagine uguali (duplicate) che hanno lo stesso hash.
Purtroppo alcuni CMS (typo Joomla in alcuni casi) creano pagine duplicate che non sono proprio uguali byte a byte ma magari includono il proprio url. Quindi pagine duplicate differiscono per pochi byte e non vengono identificate come tali da questo strumento ma per Google ovviamente lo sono. In questo caso puoi verificare quali hanno lo stesso title/description o esportare tutte le pagine ed ordinarle per dimensione (di solito questi duplicati differiscono per pochi byte).