- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Cerco tool per individuare contenuti duplicati
-
Ciao Lorenzosa,
faccio già qualcosa del genere: site:miosito.it intitle: parolachiave
funziona abbastanza bene, ma quando ci sono un centinaia di parole da testare un tool automatico farebbe comodo.
-
Allora, site:miosito.it intitle: parolachiave così trovi la parolachiave solo nel titolo (credevo parlassi di contenuto)
Se ho capito male e si tratta del titolo ti suggerisco il webmaster tool Miglioramenti html ,oppure puoi provare anche site:miosito.it intext: "parolachiave"
-
Si, trovo la parola chiave solo nel titolo, ma da come sono organizzate le pagine riesco a capire (quasi sempre) se il contenuto è troppo simile.
Sto provando anche con intext, in effetti anche così ne trovo parecchie pagine da togliere.
Per ora vedo di eliminarne almeno una 50ina al giorno, sperando che serva a qualcosa....
Tutte le pagine della directory dove ci sono queste pagine sono scomparse dai primi risultati di google, voglio vedere se a furia di togliere duplicati qualche pagina torna su.
-
Usi un CMS?
-
meglio il Canonical che il noindex
-
Anche io credo che sia molto meglio il canonical del NOINDEX.
Per quanto riguara i tool, invece, io ti consiglio Siteliner.com ed un check completo completo con Seositecheckup.com
ps: copyscape qui lo do per scontato, ok?
-
Per quanto riguarda il canonical: ci sono parecchie pagine con elenchi di prodotti di che non mi interessa più far apparire nel motore, in questo caso avrebbe un senso indirizzare il canonical verso una pagina con prodotti completamente differenti? Oppure verso la home della sezione?
In questi casi non sarebbe meglio un noindex?
Anche se inizio a sospettare che il motore non veda bene improvvise sparizioni di migliaia di pagine di colpo.
-
Danilo copyscape in questo caso credo non centri molto.
Invece gli altri due che hai segnalato mi sembrano interessanti! faro qualche test. Secondo te riescono ad analizzare un sito da circa 30000 pagine?
-
siteliner (la versione "onpage" di copyspace) potrebbe esserti utile, io uso raven ma ha un limite di 10.000 pagine al giorno.
-
@kungfu said:
Per quanto riguarda il canonical: ci sono parecchie pagine con elenchi di prodotti di che non mi interessa più far apparire nel motore, in questo caso avrebbe un senso indirizzare il canonical verso una pagina con prodotti completamente differenti? Oppure verso la home della sezione?
Il canonical fà capire che i contenuti sono simili alla pagina canonica
@kungfu said:
In questi casi non sarebbe meglio un noindex?
Se gli articoli ci sono meglio un canonical, ma se nn ci sono o non sono disponibili cancella la pagina e redirect 301.
Il noindex lo metti se non vuoi che la pagina sia indicizzata ma vuoi continuare a farla esistere (es. pagina con dati sensibili)
-
@kungfu said:
Danilo copyscape in questo caso credo non centri molto.
Invece gli altri due che hai segnalato mi sembrano interessanti! faro qualche test. Secondo te riescono ad analizzare un sito da circa 30000 pagine?
Non conosco i limiti in termini di pagine di Siteliner. In ogni caso credo che non sarebbe male un'analisi effettuata attraverso più tool.
-
[...]
-
Puoi usare anche lo spider seo Screaming Frog. Effettui lo spidering di tutto il sito (sperando che non ci siano problemi di architettura per cui tutti i duplicati siano raggiungibili). Poi vai nella scheda URI e selezioni dal menu a tendina "duplicate". Ti verrà mostrato un report esportabile in cui le pagine uguali (duplicate) che hanno lo stesso hash.
Purtroppo alcuni CMS (typo Joomla in alcuni casi) creano pagine duplicate che non sono proprio uguali byte a byte ma magari includono il proprio url. Quindi pagine duplicate differiscono per pochi byte e non vengono identificate come tali da questo strumento ma per Google ovviamente lo sono. In questo caso puoi verificare quali hanno lo stesso title/description o esportare tutte le pagine ed ordinarle per dimensione (di solito questi duplicati differiscono per pochi byte).