• Super User

    Un po' di contenuti duplicati fanno male a tutto il sito?

    Ciao a tutti,
    mettiamo caso che ho un sito che parla di turismo, formato da 300 pagine.
    Di queste 300 pagine circa 200 sono tutte scritte a mano, con contenuto unico ed originale, e riguardano una certa zona turistica, mentre le altre 100 pagine sono pagine informative con contenuti esattamente identici a quelli già presenti su altri siti che hanno acconsentito alla ripubblicazione.
    Questi contenuti duplicati presenti sul mio sito probabilmente non usciranno su Google dato che ci sono già siti più autorevoli che li pubblicano, però la mia domanda è se pubblicando i contenuti duplicati il mio sito può avere una penalizzazione riguardante le altre 200 pagine uniche ed originali.
    grazie.


  • Super User

    Credo tu sia al limite.

    Probabilmente no, ma bisognerebbe provare e verificare.


  • Bannato User Attivo

    Approfitto di questo post per parlare dell argomento sui contenuti duplicati,

    Vi spiego

    ho un amico che deve fare il sito corporativo della sua azienda, é una azienda molto grande ed é divisa per tipi di servizi che offrono, vi posto la web http://www.tresce.com/clientes/gc/ che é ancora in fase di progettazione (la web rispetto alla attuale includera 4 domini differenti interlinkati). Il tipo che gliela fa gli ha proposto di creare una sezione delle news per ogni tipo di attivitá per fare gli aggiornamenti alla web. Il tipo gli ha detto che le news saranno le stesse per tutti i siti e semplicemente cambiando il Title Google non si accorge che la news é duplicata. A me mi sembra una gran menata pero volevo avere un parere in piú prima di dargli la mia opinione.

    grazie per i vostri interventi


  • Super User

    @Karapoto said:

    Credo tu sia al limite.
    Probabilmente no, ma bisognerebbe provare e verificare.

    Sì forse è al limite, ma moltissimi siti prendono contenuti già pubblicati per integrarli nel proprio sito ed offrire un servizio migliore. Anche giorgiotave.it fa questo, ad esempio pubblicando il de bello gallico (http://www.giorgiotave.it/latino/liber1.php) ed altre cose che si trovano già in rete. Giorgiotave.it però non è un buon esempio perché effettivamente la percentuale di contenuti "duplicati" è veramente bassa, però ho visto online siti con contenuti straduplicati che tuttavia non mi sembrano penalizzati.


  • User Attivo

    A mio avviso un contenuto duplicato e' sempre penalizzante.
    Il motore dovra' inviare il proprio spider constantemente per verificare l'originalita' del testo (perche' potrebbe cambiare nel tempo).

    Il suo bot constatera' di volta in volta che quel testo non e' originale.

    Pertanto il motore spreca risorse per verificare nel tempo l'inutilita' di alcuni contenuti (duplicati) del sito in analisi.

    Lo spider legge i duplicati, il bot ne rallentera' la verifica man mano che passa il tempo, il motore prendendone atto vi si adegua.


    Questo se il testo fosse un duplicato in toto. Ma se fosse parziale?

    Chiediamoci allora quando un testo possa essere considerato un "duplicato".

    Ipotizziamo che io scriva in una mia pagina, dentro una mia frase, il termine casa.

    Casa e' un duplicato.

    E se scrivessi in una mia frase casa rossa? Idem


    Insomma gira e rigira tutto il testo e' un qualcosa di gia' presente nei db, a meno che una frase non sia particolarmente lunga... ma non basta.

    E' palese che se scrivessi una frase lunga, in una mia pagina, sarebbe improbabile che una frase identica sia gia' presente nei db dei motori, ma non dobbiamo farci trarre in inganno.

    Perche' i motori non ragionano dalla maiuscola al punto (di una frase).
    I motori ragionano per query, e verificano valutano se ci sono duplicati in base alle query fatte dagli utenti.


    Qui sta la "novita'".

    Se in una mia frase scrivo "casa cane" ma nessun utente cerca casa cane, per i motori quel testo sara' anche originale ma di fatto e' un testo inutile.


    Siccome i testi nelle pagine sono potenzialmente infiniti e realmente tantissimi, i motori sono passati dall'analisi delle singole frasi all'analisi di tutto il contenuto-contesto di una pagina, addirittura di un sito.

    Capirete voi tutti cosa questo di fatto comporti.


    Faccio un esempio. Io wm prendo il sito A, lo spiderizzo, levo il codice e dopo ogni punto metto un br.

    In questo modo ottengo tutte le frasi, una sotto l'altra, contenute nel sito A.

    Poi spacco quelle frase dopo ogni virgola ed in questo modo ottengo tante micro frasi.

    Poi unisco quelle "microfrasi" in modo random e le pubblico su centinaia di pagine del sito B.

    Pensate forse che un motore non se ne accorgera'?
    Se ne accorge perche' valuta un sito nel suo insieme e non frase per frase o pagina per pagina.


    Concludendo, discussioni su cosa sia originale o meno per un motore sono all'ordine del giorno tra i piu' disparati seo mondiali.

    Ognuno dice la sua, ed e' giusto che sia cosi'.

    Non c'e' un minimo comune denominatore di pensiero, ma mia personalissima opinione e' che con pagine particolarmente lunghe (da 50k a 200k di solo testo), pagine contenti argomenti-key assolutamente non congruenti tra di loro (uMoR ha verificato fino a 15 key diverse ed oltre per pagina), che testi spaccati in frasette di 5-8 parole non "gia' presenti" (che pessimo italiano, chiedo venia) tra virgolette nelle serp dei motori si ottengano risultati molto interessanti (eufemismo).

    I motori principali appartengono a multinazionali molto attente al rapporto costi/benefici. Sfruttare questo loro limite mi sembra opportuno per ogni seo.


    Gli scacchisti sanno i manuali delle aperture (sono alla E ad oggi?) sono essenziali. Essenziale significa non solo che non se ne puo' fare a meno ma anche rappresentare il minimo indispensabile. Ho portato l'essenziale...

    Bene, i motori si nutrono di essenziale, tutto cio' che rappresenta per loro un evoluzione, una miglioria nel sort delle query ma non comporta utili economici (a breve o lungo termine) viene scartato.

    Insomma se per migliorare un poco mi costa tanto allora non mi conviene.

    E' proprio questo il punto debole di ogni motore.

    Il wm non ha questo problema. Capisce che ad un motore non conviene "approfondire" piu' di tanto una certa analisi-algoritmo e li ci specula.

    I motori a volte non sono stupidi per inefficienza, lo sono per scelta, per loro convenienza economica, per praticita'.

    --

    Non li giudico, al loro posto mi comporterei esattamente.

    Una costante ricerca del miglior dividendo ottenebra, ottusa, distoglie, svia, inficia, inebria, confonde, distoglie, sminuisce, svalorizza, diminuisce, condiziona, altera, decardina e scardina, scurisce, invalida quanto di buono i puri e grandi esperti informatici (che cercano di sviluppare aria pura, aria in seguito inquinata da marketing e sodali) proponevano e progongono ingenuamente al fine di migliorare i sort.

    Il buon seo proprio su questo aspetto gioca-specula, quando un motore da duro e puro diventa malleato e sporco ecco che il seo da il tocco finale al tutto rendendolo ancora piu' imbastardito.


    I motori ad oggi resistono agli attacchi dei seo principalmente per 2 ragiorni.

    Il primo motivo e' che il conflitto, negli adetti ai motori, tra marketing ed informatici vede prevalere ai punti ancora questi ultimi.

    Il secondo e' che i migliori seo storicamente non si sono mai aggregati, preferendo farsi le scarpe l'uno con l'altro, e questo ha momentaneamente illuso i motori di aver la maggior parte delle risorse hardware e software preponderanti.

    Per questo motivo giudico nel tempo la sfida tra seo e motori assolutamente iniqua, sfruttarne i limiti attuali e futuri da parte dei seo sarebbe per loro piu' facile che mangiare una buona pizza in italia.


    Leggo di centinaia di seo che si lamentano che i loro siti sono stati penalizzati o bannati da questo o quel altro motore.

    Beh cosa vi costa aprire un clone?

    Un paio di caffe' per acquistare un .info?

    Vi bannano il .info? Fate un .org.
    Vi bannano il .org? Alllora aprite 100 siti cloni, tutti uguali ma diversi tra di loro.

    Non avete o volete investire 200 dollari per centuplicare il vostro sito, beh allora non prendetevela con i motori che al tempo vi hanno cassato, ma con voi stessi che non avete voluto investire quel minimo per imporre nei motori il vostro sito rivisto e stravolto in ogni forma e maniera.

    Colpa vostra.

    Tutto questo per dire che mentre i seo impazziscono per capire cosa sia originale o no, i motori per la stessa ragione danno di matto.

    Ma i seo non se ne rendono conto.