- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Nuovo algoritmo Google: contenuti duplicati... come si comporterà?
-
Debbono comunque mantenersi sul vago e tacere misteriosamente sui motivi... così potranno far marcia indietro più avanti.
Se dicessero che è stato penalizzato per motivi precisi, poi non potrebbero più ri-mangiarsi le parole. La sensazione è la solita: estremamente difficile affidarsi a degli algoritmi per stabilire la qualità di un sito.
Le vittime negli Stati Uniti sono tante ed eccellenti, vedrete che ci saranno nuovi "aggiornamenti" nelle prossime settimane...
-
@444523 said:
Secondo me, come al solito, hanno combinato un gran casino ed occorreranno mesi prima che corrano ai ripari... vediamo che combineranno in Italia, ma le premesse sono, direi, agghiaccianti.
:bho:Parola davvero azzeccata. Concordo
-
Uno dei miei blog è stato penalizzato per contenuti duplicati, e da quello che leggo nel forum webmaster di google non sono l'unica in questa situazione.
La mia penalizzazione è stata causata da un aggregatore a cui mi ero iscritta da pochi giorni inserendo i feed dei miei post, l'aggregatore era meglio indicizzato del mio blog e google ha deciso di lasciare lui sui risultati di ricerca e non me. Google infatti pare sostenga una posizione del tipo "facciamo fuori i contenuti duplicati lasciando il contenuto dove riteniamo più idoneo che sia visualizzato", senza accertare quale sia la fonte.
Ora ho fatto richiesta di riconsiderazione e ho tolto i feed dall'aggregatore, i miei articoli non sono più duplicati (anzi in rete non ci sono proprio più) e ho contattato il webmaster per chiedere la rimozione anche di tutte le pagine con i titoli (e i link oramai inattivi ai miei post) che sono ancora indicizzati in rete.
-
@bblogger said:
La mia penalizzazione è stata causata da un aggregatore a cui mi ero iscritta da pochi giorni inserendo i feed dei miei post, l'aggregatore era meglio indicizzato del mio blog e google ha deciso di lasciare lui sui risultati di ricerca e non me.
E' uno dei problemi più grossi di Google, è stato anche ammesso da un ingegnere che lavora in Google (era presente ad un importante raduno in America, secondo almeno uno dei partecipanti a questo convegno, che ha postato poi su WebmasterWorld).
Quando capitano cose simili è "obbligatorio" per il webmaster incolpevole dare comunicazione a Google (e sperare), gli algoritmi non riescono a distinguere in questo caso, o perlomeno, capita spesso...
-
Non resta che tremare e attendere ...
-
sono d'accordo con webhunter, eliminare definitivamente lo spam è impossibile.. per il resto, credo che l'algoritmo nuovo combinerà una serie di casini ma - allo stesso tempo - mi chiedo se non abbiano già preso in considerazione la questione ... vediamo che succede, in particolare è la questione degli aggregatori di notizie che mi "incuriosisce"!
-
@lamiadirectory said:
vediamo che succede, in particolare è la questione degli aggregatori di notizie che mi "incuriosisce"!
Dovrebbero essere ridimensionati e non capisco perchè Google li abbia tollerati sin dall'inizio, ormai sono diventati una piaga...
:bho:
-
@444523 said:
Quando capitano cose simili è "obbligatorio" per il webmaster incolpevole dare comunicazione a Google (e sperare), gli algoritmi non riescono a distinguere in questo caso, o perlomeno, capita spesso...
Ma allora perchè introdurre il pubsubhubhub, non dovrebbe servire anche per segnalare il primo ping a un articolo? google mette a disposizione uno strumento che poi non utilizza nei suoi algoritmi?
Sono molto tentata di segnalare pagine come questa
http: //webpedia.altervista.org /post/102085/
attraverso il link per l'aggiunta e la rimozione delle pagine a google.
Quanto tempo ci mettono gli spider a capire che sono vuote?
-
In USA e ancora di più in UK il panda update sta portando tantissimi stravolgimenti, molti siti hanno perso interamente il traffico da Google da un giorno all'altro... e riguarda tutti i siti, il discorso content farm è davvero di poco conto rispetto al cambiamento globale. Ci sarà da ridere/piangere nelle prossime settimane quando il panda update arriverà in Italia... auguri a tutti...
-
@bluemountains said:
ci sarà da ridere/piangere nelle prossime settimane quando il panda update arriverà in italia... auguri a tutti...
proprio vero!
-
Premesso che ho idea che qualcosa nella serp di G. è già avvenuta ( non so di preciso cosa ne so farmene un'idea, ma di sicuro ho la sensazione che G. sia più attento davvero ai contenuti ...), il problema degli aggreggatori è davvero una piaga e io l'ho ribadito più volte in alcuni miei interventi.
Qui bisona distinguere quelli "professionali" ( e sono pochi ) da quelli "dilettantistici" ( e sono maggioranza) : questi ultimi sono davvero devastanti e l'ho sottolineato più volte.
E per una serie di motivi : intanto spesso "aggregano" da altri aggregatori , che a loro volta aggregano da altri , per cui il povero visitatore se davvero è tenace e desidera arrivare alla fonte originale , deve fare una serie di "salti" incredibili spesso passando per 3 o 4 aggregatori che sono quasi sempre MFA.
Eppure basterebbe che l'algoritmo di G. tenesse presente gli abstract tipo se è riprodotto solo in quello : a questi potrebbe applicare una penalizzazione, visto che aggregano anche senza nessuna autorizzazione e quindi, fondamentalmente , a insaputa del publisher.
Non ho mai capito , visto che sarebbe così semplice colpire le content farm, perchè ancora non lo abbia fatto ( speriamo che avvenga con Panda Update ).
Ma anche quelli "professionali" ( evito di fare nomi! ) sono una piaga : ho dovuto richiedere la cancellazione da un paio di aggregatori blasonati perchè, statistiche alla mano, non solo nella serp apparivo sempre dopo, in alcuni casi i miei originali nemmeno comparivano, ma per quanto il traffico provenienti da questi aggregatori rappresentavano pochissimi visitatori al giorno tipo 15 visitatori su 6.000 !
Insomma roba da ridere.In compenso i miei risultati venivano dopo questi aggregatori , quando ...comparivano.
Dopo la cancellazione la posizione è migliorata , non solo , ma ora tutti i post vengono "digeriti" dalla serp .Un altra "piaga" degli aggregatori "dilettantistici" è quella che non esiste , il più delle volte, un contatto al quale richiedere la cancellazione e quando esiste o ti ignorano o ti canzonano.
Un altro problema è rappresentato anche dai forum-fanzine, quasi sempre su piattaforme gratuite : su questi non è difficile che utenti riproducano interi articoli.
Quando si protesta con gli admin dei vari forum se ti va bene ti rispondono che loro non sono responsabili di quello che fanno gli utenti, in molti casi vieni insultato ( come è capitato a me ) e hai anche la beffa oltre il danno per altri motivi.A questo punto le uniche "armi" a disposizione sono le segnalazioni a Google e ad AdSense per contenuti protetti, sperando che il Panda Update faccia il proprio dovere come promesso.
Chissà se sarà mai così e se chi lavora da mattina a sera possa vedere premiati davvero i propri sforzi.
-
@bluwebmaster said:
Premesso che ho idea che qualcosa nella serp di G. è già avvenuta
Concordo... è già accaduto qualcosa di grosso nelle serp, loro dicono che il Panda Update non è stato ancora introdotto, ma io non ci credo... probabile che lo stiano ancora "settando", ma è in corso qualcosa, di sicuro...
-
Per me questo Panda è qualcosa che, almeno da quanto ho compreso, dovrebbe andare oltre la mera individuazione di un contenuto copiato. Mettiamo che io organizzi un concorso a scopo completamente benefico: ovviamente devo inviare il bando a decine, centinaia di siti, e ovviamente non è possibile modificarlo. Cosa accade: o questi siti si beccano un bel testo duplicato, oppure creano una pagina senza testo ma con il link al mio bando. Insomma, ambedue i casi poco graditi a Google.
E quindi: diventerà impossibile riprodurre anche un solo testo copiato, seppure in maniera lecita e pulita?
A mio avviso occore fare un distinguo:
se TUTTO il mio sito fosse composto da pagine contenenti non la vera risorsa me bensì link ad altri siti, il tutto infarcito di Adsense, allora sarei una content farm.
Tutto il discorso dei contenuti duplicati è vecchio quasi quanto Google e, da quanto ho capito, qui non si parla soltanto di contenuti duplicati, ma di siti INUTILI, che rubano spazio ad altri, come dice bluewebmaster:
intanto spesso "aggregano" da altri aggregatori , che a loro volta aggregano da altri , per cui il povero visitatore se davvero è tenace e desidera arrivare alla fonte originale , deve fare una serie di "salti" incredibili spesso passando per 3 o 4 aggregatori che sono quasi sempre
Ma tutto ciò trascende il contenuto duplicato, poiché io potrei creare una pagina chiamata - realizzazione siti firenze - ci metto un testo originale generico e poi link a tutti siti di webmaster fiorentini.
Se facessi così per tutto il sito, sarei una content farm, pur non facendo contenuto duplicato, tuttavia, sarei anche utile all'utente, perché questi avrebbe una lista utile di ciò che cerca. Però la domanda è un'altra: non sarebbe meglio, per l'utente, anziché trovare pagine del genere in prima posizione, trovare direttamente quella del webmaster fiorentino di turno? Ovviamente sì, ecco il punto.
Forse sto parlando della scoperta dell'acqua calda, ma a mio avviso occorre tenere ben distinti i due discorsi, ovvero, quello del contenuto duplicato, che è una cosa, e quello del "content farming" che è un'altro.
-
@444523 said:
Concordo... è già accaduto qualcosa di grosso nelle serp, loro dicono che il Panda Update non è stato ancora introdotto, ma io non ci credo... probabile che lo stiano ancora "settando", ma è in corso qualcosa, di sicuro...
Concordo anch'io, ma non ho certezza si tratti del Panda.
-
Quoto pienamente Web Hunter.
Anche se per gli "aggregatori" la ricetta sarebbe quanto mai semplice : non se ne mette in discussione l'esistenza o la funzione ( quale poi mi piacerebbe saperlo! ) , ma semplicemente gli effetti devastanti che si riflettono anche su AdSense indirettamente.
Basterebbe considerare che se un sito pubblica l'abstract di un articolo, significa semplicemente che l'intero articolo è pre-esistente all'abstract stesso, quindi , se questo accade molte volte per lo stesso sito e per molti siti è una content farm di poco o nessuna utilità.
Diverso è il discorso per il replicate di un articolo : ma questo può accadere qualche volta per un sito , ma appunto "qualche volta" : se è sistematico è già qualcosa di diverso dallo sporadico.
Se non ho capito male Panda andrebbe in tal senso : ben venga allora , qualsiasi sia poi la risultante.
-
Quoto anche io Webhunter. Non ci resta, fondamentalmente, che aspettare che Panda arrivi in Italia, e i presupposti suggeriscono che ne vedremo delle belle. In questi giorni volevo girare su qualche forum estero per capire cosa diceva la gente nei paesi in cui già è in azione (anche se poi è una cosa che dà solo una vaga idea, bisogna vedere poi come andrà con la realtà italiana), ma non ho ancora avuto il tempo di farlo.
-
Leggendo un pò in giro, sopratutto alcune discussioni su webmasterworld, sembra che siate un pò fuori strada. Gli aggregatori non sembra che abbiano subito grossi danni con questo update rispetto ad altri siti con contenuti originali ma poco rilevanti, troppo ottimizzati, con 2 o tre banner pubblicitari (non solo Adsense) "sopra la piega". Pare invece che vi sia stato un inesorabile avanzamento di pagine spam e sex, e molte query propongono contenuti vecchi di secoli (2006-2007).
Sembra che il fattore rilevante sia la "qualità grafica" delle pagine più che il contenuto.... duplicato o originale che sia. Pare anche che un fattore rilevante (GA) sia il tempo di permanenza nel sito, la frequenza di rimbalzo e altri fattori che GG estrapolerebbe dai siti che hanno GA, utilizzano il WMT e tutti gli strumenti che il motore mette a disposizione.
C'è in USA qualche sito che ha visto riconquistare posizioni quando ha eliminato tutti questi strumenti....
Google perde quote di mercato... se non sistema le cose mi sa che ne perderà molte di più....
In Italia?? si copiano tutti.... contenuti originali non ve ne sono, e quelli che ne hanno parvenza sono quasi sempre copiati da siti all'estero.
In UK è stato penalizzato, tra gli altri, Ciao (by Microsoft) e molti sostengono che la Serp, qualsiasi serp, sia dominata nei topfive da prodotti GG.... (blogspot, GG news, GG map) che bellezza!!
Evviva il pandalizer!!
-
Ho dovuto inviare una richiesta di riconsiderazione... mai accaduta una cosa del genere in 10 anni: ormai vengo superato da "paginette" singole non aggiornate da mesi, neanche siti...
Penso ci sia davvero qualcosa che non va... anche i miei concorrenti e quello che seguo in particolare (ed è un bel sito) è in grossa difficoltà come me... sono impazziti.
Potrei capire se il mio sito avesse due-tre anni, ma dopo 10 anni si accorgono che è una schifezza? Non è che stanno perdendo il controllo di questo mostruoso database? Temo proprio di sì...
Loro dicono di no, ma secondo me su alcune serp specifiche il Panda è stato già introdotto anche in Italia, probabilmente stanno facendo delle verifiche prima di estenderlo globalmente...
-
444523, anch'io la pensavo come te, ma ti assicuro che panda non è ancora arrivato in Italia, il giorno in cui arriva ci saranno decine di thread... in uk ci sono siti completamente spazzati via da Google. Per fare l'esempio citato da taolo, ciao.co.uk ha perso il 99% del traffico da Google, non il 10 o 20% e così moltissimi altri siti famosi e non. È vero che conta moltissimo la grafica, ancora di più il rapporto pubblicità/contenuti. Sui dati riguardanti il tempo di permanenza, frequenza di rimbalzo etc ci sono opinioni contrastanti, i dati non sono univoci.
-
in ogni caso è vero che google sembra, per la prima volta, in grossa difficoltà.