• Moderatore

    C'ero anche io al Convegno GT 🙂
    Comunque non ritengo giusto che un sito perchè è più veloce possa passare avanti. Mi spiego meglio.
    Se la serp è la stessa ma il testo della pagina è diversa allora concordo con il sito + performante, se invece il testo è uguale dovrebbe esserci il sito con il contenuto originale!
    Poi tieni conto di una cosa, il mio sito è stato eliminato completamente dalla serp mentre altri che hanno copiato dopo il contenuto sono sopra!

    Penso che google invece di pensare al social search debba migliorare un po' questo perchè non è la prima volta che lo vedo. Mi capita spesso di vedere cose del genere infatti non ho mai creduto al fatto che google eliminasse i siti in caso di contenuto duplicato o meglio li elimina con criteri diversi da quelli che si dicono in giro...


  • Moderatore

    NEWS: il sito è ritornato in prima posizione

    Comunque la serp è questa:
    http://snipurl.com/tpc6c


  • Moderatore

    Ciao Van Basten,

    purtroppo il problema dei contenuti originali copiati da altri siti, fa molto spesso tantissimi danni e penalizza anche l'autore primario.

    Concordo con Criss sia sul fatto che siti che copiano e che hanno un trust maggiore possono scavalcare il sito originale e sia sul discorso delle performance del server.

    Ottimizzare quest'ultimo da sicuramente vantaggi.

    Sono contento che il tuo sito sia tornato in prima posizione. Ma come difendersi in futuro dai "copioni"?

    Per un blog che sforna articoli con una certa frequenza è improponibile parlare di copyright o comunque di diritto d'autore, perchè i costi sarebbero fuori portata e impossibili.

    Ovviamente spese per un legale sarebbero anch'esse elevate.

    A me da poco hanno copiato alcuni testi su un mio sito...

    Ho scritto una mail dove intimavo il webmaster a rimuovere il tutto. In caso contrario ho minacciato di ricorrere alle vie legali.

    Per questa volta sono stato "fortunato" e i contenuti sono stati rimossi subito. Purtroppo però alcuni (se non quasi tutti) se ne possono fregare altamente perchè sanno che forse alle vie legali non ricorreresti mai realmente.

    E' una triste realtà purtroppo alla quale Google, con i suoi potenti mezzi, dovrebbe cercare di porre di rimedio.


  • Moderatore

    Concordo Paco, i danni quando vengono copiati certi contenuti non sono da poco!

    Mi è capitato recentemente di aver scritto un articolo corposo ed interessante, dopo 5 minuti mi sono accorto che era stato copiato, fortunatamente era un piccolo blog e me l'hanno rimosso ma a volte capita di trovarsi davanti a grandi siti che non tolgono affatto i contenuti!


  • Super User

    Quoto LaBussola e Criss.
    Il primo in quanto anch'io ho avuto amara esperienza di quanto dice e ho dovuto mettere mano ai legali per richiedere la rimozione di intere pagine copiate da altri : anzi temo, poi LaBussola che ritengo un luminare sulla questione me lo confermerà, che se Google ti "targa" come "copiatore" peggio ancora , termine conaito fresco fresco, come "il replicatore inutile", per quanto tu possa essere il primo a dar notizia, se ti targa così finisci in un angolino da dove , ohi, è difficile uscirne.

    Anche se temo che ci siano anche altri fattori che incidono in questa "targa" che ti assegna BigG : credo che molto stiano facendo sulla "semantica" .
    In pratica, magari dico un eresia e chiedo perdono in anticipo, ho impressione che se dici "a blocchi" le stesse cose che dicono gli altri, non importa che tu abbia trust o meno, conta abbastanza , secondo me, anche il numero di click ricevuti dal motore : in pratica BigG sta dando più importanza all'utente che all'autore come dice LaBussola.

    Per quello che diceva Criss sulla velocità credo di poter confermare in pieno.
    Ho messo mano alla riduzione delle immagini, attivato la compressione gzip, insomma ho cercato di rendere veloce i siti e, almeno apparentemente, un mio problema sta rientrando ( sto facendo le opportune verifiche ovviamente ).

    Resta da capire che significato esatto abbia la penalizzazione, o almeno presunta tale, dei cosidetti -7 gg sulla penalizzazione. (Vedi post relativo ).

    Ho notato infatti che su alcuni mie siti opportunamente trattati secondo i consigli di LaBussola la situazione pare migliori e tenda a risolversi.
    Mentre vedo che il sito di un altro amico che soffriva gli stessi problemi ( cremona . blogolandia .it ) continua a maturare il -7 gg sull'indicizzazione.

    Per il problema legale, ti consiglio vivamente intanto di predisporre un modello abbastanza "duro " di richiesta di rimozione da inviare via email.
    Poi un secondo, dove avvisi che stai scrivendo anche al provider, che secondo gli orientamenti della giurisprudenza attuale è il "primo responsabile" della pubblicazione.
    E poi un terzo, qualora resti inascoltato, dove avvisi il provider che stai per depositare la Querela.
    Ti assicuro che nel 90 % dei casi risolvi così : per gli altri 10 % ...carta bollata.

    In alcuni casi ti assicuro ci sono provider ( il più serio sembra essere altervista ) che prendono seri e immediati provvedimenti, altri che sono il massimo della scorrettezza e che solo dopo aver minacciato la querela ti rispondono che loro non sono responsabili ecc.
    Prova a inviargli copia di qualche sentenza di provider condannati e ...volano!


  • Moderatore

    Bella discussione, son contento si sia animata un po' 😉

    @Van Basten:
    c'eri anche te al convegno? Può essere allora ci siamo incrociati dato che ho parlato praticamente con più della metà delle persone che c'erano 🙂
    Per quello che dici sul "giusto e non giusto" come non quotarti, e anche sul discorso che google sta dando troppa importanza al social...o ancora meglio al "real search".
    Per il resto purtroppo devo come sempre far ritornare alla mente una reminescenza che tutti abbiamo sicuramente vissuto da bambini. E cioè quando c'era quello con il pallone che diceva "il pallone è mio e gioca chi voglio io con le mie regole". Ecco...google è proprio alla stregua di un bambino str***o e così bisogna trattarlo...accontentare i suoi capricci.
    Per quanto riguarda il test sulle duplicazioni e velocità invece non posso darti ulteriori informazioni perchè sicuramente ne uscirà un ampio estratto sul forum tra non molto tempo :wink3:
    Di sicuro posso comunque dirti che le pagine duplicate e che sembrano uscite dal ranking non vengono eliminate dall'indice, ma solamente "parcheggiate" un attimo.

    @pacoweb:
    noi con la ditta invece siamo andati più volte per vie legali per i motivi citati di testo duplicato. Nell'80% delle volte sono stati tolti appena prima di far partire la causa (leggasi lettera dello studio legale) mentre il 15% delle volte i copioni hanno pagato. Il restante 5% per un piccolo cavillo non si è riusciti a dimostrare l'originalità assoluta del nostro testo e abbiamo dovuto cambiare noi il testo (o così o lasciarlo duplicato eran le soluzioni).

    @bluwebmaster:
    con i tuoi accorgimenti hai notato sensibili miglioramenti nella velocità del sito?

    Ciao a tutti..
    :sun:


  • ModSenior

    Riguardo ai duplicati c'è di peggio come sicuramente avrete già letto qua http://www.giorgiotave.it/forum/consigli-seo-e-penalizzazioni/129874-penalizzazione-da-violazione-copyright.html .

    Sto conducendo da un pò di tempo dei test su contenuti duplicati in particolare sui blog (con e senza autoblogging).

    Mentre analizzo i miei risultati posso solo segnalare che in SERP ad esempio cercando convegno gt 2009 oppure vincitore xfactor (segnalazione di Fortunecat) compaiono anche aggregatori di news.


  • Moderatore

    Per fortuna non è il mio caso :figo2:

    Comunque ritengo che se google avesse un buon algoritmo in fatti di contenuti duplicati, gli aggregatori non sarebbero così numerosi! a me capita spesso che siano proprio questi a rubarmi gli articoli. Il problema è che secondo me google conta anche il numero di post.
    Questi siti hanno un gran numero di post perchè li copiano, il sito come il mio non possono fare un numero così alti di qualità perchè dietro ad ogni articolo ci sono ricerche accurate e spesso per scriverne uno ci metto anche 1 ora!

    @Criss
    non penso di aver parlato con te, non ho parlato con tanta gente al convegno


  • ModSenior

    In realtà Google secondo me ha già strutturato una piattaforma per gestire i duplicati.

    C'è un brevetto in cui si parla degli autori dei contenuti e della possibilità di far valere la paternità degli stessi.

    Poi le cose si fanno più complesse (mancano del tutto riferimenti grafici a supporto) e si dice che in certi casi i contenuti potrebbero diventare a pagamento (ma questa è una citazione "a memoria" di quel lungo brevetto, quindi mi riservo di guardarla con più calma).

    Infine Google precisa nello stesso brevetto che, in caso di errori temporanei di server o di 404 verso una pagina specifica, potrebbe mostrare e usare una qualunque altra pagina duplicata al posto di quella che dà errore.

    Google giustifica questo comportamento dicendo che deve soddisfare la richiesta originaria dell'utente.

    Di recente (1 Dicembre) è stato riconosciuto a Google questo brevetto sui duplicati del 2003 che non ho ancora letto ma credo che purtroppo non dica molto di nuovo.

    Invece da controlli fatti anche a fronte della penalizzazione di Deborahdc sembra confermato quanto dechigno accennava per le sue fluttuazioni sinusoidali e cioè che Google usi uno spider apposito per analizzare un sito molto più in profondità rispetto al solito in caso di duplicazione.

    Sembra quindi confermata la vecchia idea del "bad spider" che avevo indicato qui individuabile dai classici 2 picchi ravvinicinati nel Google Webmaster Tools come descritto accuratamente da dechigno nel suo intervento allo convegno gt 2008.


  • Super User

    @criss

    Si, ho notato , da quando ho ottimizzato un pò di siti nel senso di renderli più veloci , un aumento delle pagine scansionate ( Google tools webmaster ) anche se...si è ridotto ovviamente la quantità di Kb scaricata.
    Diciamo che una settimana dopo aver ottimizzato in quanto a "peso" le pagine, ancorchè ho seguito anche i preziosi consigli di LaBussola e di Dechigno, pare che il problema di cui venivo afflitto ( -7 gg sull'indicizzazione della pagine) sia sparito (speriamo bene).
    Anche perchè posso pensare che quel -7 sull'indicizzazione sia in un certo qual senso legata al fattore "velocità", cioè minor peso delle pagine.
    Adesso verificherò i posizionamenti e ti saprò dire se c'è stata qualche novità anche in tal senso.

    @Mister Jinx

    Anch'io nel periodo immediatamente prima e durante quella specie di diavoleria di penalizzazione dei -7 gg ho avuto due picchi incredibili sia in fatto di pagine scansionate che di Kb scaricati e questo parallelamente su tutti i siti!!!
    Che bello! Il dottor BigG mi ha visitato a "fondo", insomma una bella visita specialistica!
    😄


  • ModSenior

    Si si infatti se vuoi posso aggiungere che non si tratta solo di contenuti duplicati secondo me ma anche di un altro concetto più "tosto" e viscido da individuare: la similarità.

    Tornerò a postare su questo concetto con qualche altra prova più concreta. Per ora la mia è stata soltanto una intuizione (confermata dai "picchi" appunto).


  • Moderatore

    Il concetto di "similarità"/"vicinanza semantica" è assolutamente condivisibile e corrisponde anche ad alcune mie idee: se infatti per dimostrare la presenza di contenuto duplicato facciamo spesso ricorso al virgolettato, non è detto che cambiare qualche parola risolva la situazione.

    Penso in particolare a quei siti che si limitano a riportare i contenuti tratti da fonti ad altissima tematizzazione (domini di compagnie telefoniche, case di distribuzione cinematografica, quotidiani nazionali, ...) senza preoccuparsi di aggiungere valore.
    In tutti questi casi chi ripubblica si adopera in giri di parole più o meno impegnativi: fornisce nuovi documenti ma non nuovi contenuti.

    Ogni qual volta viene eseguita una richiesta, Google seleziona le migliori pagine e poi, tra queste, tenta di stabilire dei criteri di "somiglianza" (ad esempio valutando le parole utilizzate accanto a quelle ricercate, la quantità del contenuto aggiunto, ...).

    Per fare un esempio, se sul sito di un grosso brand trovo 5 righe per presentare una nuova notizia, del tipo:

    "Da oggi con GrossoBrand , attivando l'offerta VicinoACasa puoi parlare con tutti i numeri di telefono della tua città a 10 centesimi il minuto ..."

    E la riscrivo, mutatis mutandis, senza aggiungere nulla di mio in:

    "Nuova offerta VicinoACasa di GrossoBrand per parlare al telefono all'interno della tua città a soli 10 centesimi al minuto ..."

    Quando l'utente cercerà "offerta vicinoacasa di grossobrand" rischierò parecchio di venire filtrato. Troppi di questi inconvenienti e Google comincerà a ritenermi poco affidabile.
    Nella mia idea questa sopraggiunta inaffidabilità influirà sul trust generale del dominio aumentando la possibilità di ripercussioni a livello di posizionamento, o peggio ancora di penalizzazioni.

    Lasciando il dibattito e tornando all'origine, vorrei far notare che la situazione di Van Basten non è rassicurante: se è primo per il titolo del suo post (che è ancora dei link interni), per il momento i problemi più gravi rimangono: tiny.cc/5XFpA (appare in terza posizione, con la home ed il post originale è negli oltre 150 risultati omessi). Ovviamente, non è detto che vi siano conseguenze, volevo semplicemente evidenziare come il problema della duplicazione sia sempre più complesso.

    Scusate se vi ho annoiato con questo "approfondimento" delle idee avute da bluewebmaster (circa le semantica) e mister.jinx (che ha parlato di similarità). Spero di essere stato chiaro e che altri contributi possano aggiungersi alla discussione.


  • Moderatore

    @LaBussola said:

    Il concetto di "similarità"/"vicinanza semantica" è assolutamente condivisibile e corrisponde anche ad alcune mie idee: se infatti per dimostrare la presenza di contenuto duplicato facciamo spesso ricorso al virgolettato, non è detto che cambiare qualche parola risolva la situazione.

    Penso in particolare a quei siti che si limitano a riportare i contenuti tratti da fonti ad altissima tematizzazione (domini di compagnie telefoniche, case di distribuzione cinematografica, quotidiani nazionali, ...) senza preoccuparsi di aggiungere valore.
    In tutti questi casi chi ripubblica si adopera in giri di parole più o meno impegnativi: fornisce nuovi documenti ma non nuovi contenuti.

    Ogni qual volta viene eseguita una richiesta, Google seleziona le migliori pagine e poi, tra queste, tenta di stabilire dei criteri di "somiglianza" (ad esempio valutando le parole utilizzate accanto a quelle ricercate, la quantità del contenuto aggiunto, ...).

    Per fare un esempio, se sul sito di un grosso brand trovo 5 righe per presentare una nuova notizia, del tipo:

    "Da oggi con GrossoBrand , attivando l'offerta VicinoACasa puoi parlare con tutti i numeri di telefono della tua città a 10 centesimi il minuto ..."

    E la riscrivo, mutatis mutandis, senza aggiungere nulla di mio in:

    "Nuova offerta VicinoACasa di GrossoBrand per parlare al telefono all'interno della tua città a soli 10 centesimi al minuto ..."

    Quando l'utente cercerà "offerta vicinoacasa di grossobrand" rischierò parecchio di venire filtrato. Troppi di questi inconvenienti e Google comincerà a ritenermi poco affidabile.
    Nella mia idea questa sopraggiunta inaffidabilità influirà sul trust generale del dominio aumentando la possibilità di ripercussioni a livello di posizionamento, o peggio ancora di penalizzazioni.

    Lasciando il dibattito e tornando all'origine, vorrei far notare che la situazione di Van Basten non è rassicurante: se è primo per il titolo del suo post (che è ancora dei link interni), per il momento i problemi più gravi rimangono: tiny.cc/5XFpA (appare in terza posizione, con la home ed il post originale è negli oltre 150 risultati omessi). Ovviamente, non è detto che vi siano conseguenze, volevo semplicemente evidenziare come il problema della duplicazione sia sempre più complesso.

    Scusate se vi ho annoiato con questo "approfondimento" delle idee avute da bluewebmaster (circa le semantica) e mister.jinx (che ha parlato di similarità). Spero di essere stato chiaro e che altri contributi possano aggiungersi alla discussione.
    Vero.
    C'era una discussione qui sul forum dove si diceva che questo è dovuto al fatto che google riesce a carpire i concetti chiave e se li vede replicati con un determinato criterio (stesso paragrafo ecc) allora filtra i contenuti "simili".