Ciao BoNzOo,
la questione è molto interessante. Avevo già letto l'articolo con particolare attenzione sulle misure difensive. Rispetto a quanto detto saggiamente da petro, faccio notare che il problema di GG (non voglio fare l'avvocato del Diavolo) è a livello hardware/software in cui esiste un collo di bottiglia.
L'unico parametro che GG ha per stabilire l'autenticità/originalità del contenuto è il parametro data. Chi scrive le stesse cose ma lo fa dopo ha copiato (non ci piove). La scansione e l'indicizzazione "live" come decantata dallo stesso Matt Cutts, è ahimè valida per alcuni casi soltanto e come tale inaffidabile quale soluzione al problema duplicati. Perchè? Semplicememente perchè GG non passa su ogni sito con la stessa frequenza e tantomeno lo fa contemporaneamente su tutti. Rovesciando il problema ci si potrebbe domandare: ma perchè è GG a dover attribuire l'originalità di un testo e non invece l'autore a rivendicarne la paternità? Sono del parere che i limiti degli algoritmi e hardware possano essere superati con piccole accortezze. Come? Bhe in parte già lo facciamo con i ping non appena pubblichiamo un post sul nostro blog. Con i principali CMS è un gioco da ragazzi. Il tutto condito da link da risorse in cui gli spider sono di casa, possibilmente appena la risorsa è online, che assicurano un testimone (link) di quanto accaduto.
Ciao,
Andrea