- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Nuovo algoritmo Google: contenuti duplicati... come si comporterà?
-
@bblogger said:
La mia penalizzazione è stata causata da un aggregatore a cui mi ero iscritta da pochi giorni inserendo i feed dei miei post, l'aggregatore era meglio indicizzato del mio blog e google ha deciso di lasciare lui sui risultati di ricerca e non me.
E' uno dei problemi più grossi di Google, è stato anche ammesso da un ingegnere che lavora in Google (era presente ad un importante raduno in America, secondo almeno uno dei partecipanti a questo convegno, che ha postato poi su WebmasterWorld).
Quando capitano cose simili è "obbligatorio" per il webmaster incolpevole dare comunicazione a Google (e sperare), gli algoritmi non riescono a distinguere in questo caso, o perlomeno, capita spesso...
-
Non resta che tremare e attendere ...
-
sono d'accordo con webhunter, eliminare definitivamente lo spam è impossibile.. per il resto, credo che l'algoritmo nuovo combinerà una serie di casini ma - allo stesso tempo - mi chiedo se non abbiano già preso in considerazione la questione ... vediamo che succede, in particolare è la questione degli aggregatori di notizie che mi "incuriosisce"!
-
@lamiadirectory said:
vediamo che succede, in particolare è la questione degli aggregatori di notizie che mi "incuriosisce"!
Dovrebbero essere ridimensionati e non capisco perchè Google li abbia tollerati sin dall'inizio, ormai sono diventati una piaga...
:bho:
-
@444523 said:
Quando capitano cose simili è "obbligatorio" per il webmaster incolpevole dare comunicazione a Google (e sperare), gli algoritmi non riescono a distinguere in questo caso, o perlomeno, capita spesso...
Ma allora perchè introdurre il pubsubhubhub, non dovrebbe servire anche per segnalare il primo ping a un articolo? google mette a disposizione uno strumento che poi non utilizza nei suoi algoritmi?
Sono molto tentata di segnalare pagine come questa
http: //webpedia.altervista.org /post/102085/
attraverso il link per l'aggiunta e la rimozione delle pagine a google.
Quanto tempo ci mettono gli spider a capire che sono vuote?
-
In USA e ancora di più in UK il panda update sta portando tantissimi stravolgimenti, molti siti hanno perso interamente il traffico da Google da un giorno all'altro... e riguarda tutti i siti, il discorso content farm è davvero di poco conto rispetto al cambiamento globale. Ci sarà da ridere/piangere nelle prossime settimane quando il panda update arriverà in Italia... auguri a tutti...
-
@bluemountains said:
ci sarà da ridere/piangere nelle prossime settimane quando il panda update arriverà in italia... auguri a tutti...
proprio vero!
-
Premesso che ho idea che qualcosa nella serp di G. è già avvenuta ( non so di preciso cosa ne so farmene un'idea, ma di sicuro ho la sensazione che G. sia più attento davvero ai contenuti ...), il problema degli aggreggatori è davvero una piaga e io l'ho ribadito più volte in alcuni miei interventi.
Qui bisona distinguere quelli "professionali" ( e sono pochi ) da quelli "dilettantistici" ( e sono maggioranza) : questi ultimi sono davvero devastanti e l'ho sottolineato più volte.
E per una serie di motivi : intanto spesso "aggregano" da altri aggregatori , che a loro volta aggregano da altri , per cui il povero visitatore se davvero è tenace e desidera arrivare alla fonte originale , deve fare una serie di "salti" incredibili spesso passando per 3 o 4 aggregatori che sono quasi sempre MFA.
Eppure basterebbe che l'algoritmo di G. tenesse presente gli abstract tipo se è riprodotto solo in quello : a questi potrebbe applicare una penalizzazione, visto che aggregano anche senza nessuna autorizzazione e quindi, fondamentalmente , a insaputa del publisher.
Non ho mai capito , visto che sarebbe così semplice colpire le content farm, perchè ancora non lo abbia fatto ( speriamo che avvenga con Panda Update ).
Ma anche quelli "professionali" ( evito di fare nomi! ) sono una piaga : ho dovuto richiedere la cancellazione da un paio di aggregatori blasonati perchè, statistiche alla mano, non solo nella serp apparivo sempre dopo, in alcuni casi i miei originali nemmeno comparivano, ma per quanto il traffico provenienti da questi aggregatori rappresentavano pochissimi visitatori al giorno tipo 15 visitatori su 6.000 !
Insomma roba da ridere.In compenso i miei risultati venivano dopo questi aggregatori , quando ...comparivano.
Dopo la cancellazione la posizione è migliorata , non solo , ma ora tutti i post vengono "digeriti" dalla serp .Un altra "piaga" degli aggregatori "dilettantistici" è quella che non esiste , il più delle volte, un contatto al quale richiedere la cancellazione e quando esiste o ti ignorano o ti canzonano.
Un altro problema è rappresentato anche dai forum-fanzine, quasi sempre su piattaforme gratuite : su questi non è difficile che utenti riproducano interi articoli.
Quando si protesta con gli admin dei vari forum se ti va bene ti rispondono che loro non sono responsabili di quello che fanno gli utenti, in molti casi vieni insultato ( come è capitato a me ) e hai anche la beffa oltre il danno per altri motivi.A questo punto le uniche "armi" a disposizione sono le segnalazioni a Google e ad AdSense per contenuti protetti, sperando che il Panda Update faccia il proprio dovere come promesso.
Chissà se sarà mai così e se chi lavora da mattina a sera possa vedere premiati davvero i propri sforzi.
-
@bluwebmaster said:
Premesso che ho idea che qualcosa nella serp di G. è già avvenuta
Concordo... è già accaduto qualcosa di grosso nelle serp, loro dicono che il Panda Update non è stato ancora introdotto, ma io non ci credo... probabile che lo stiano ancora "settando", ma è in corso qualcosa, di sicuro...
-
Per me questo Panda è qualcosa che, almeno da quanto ho compreso, dovrebbe andare oltre la mera individuazione di un contenuto copiato. Mettiamo che io organizzi un concorso a scopo completamente benefico: ovviamente devo inviare il bando a decine, centinaia di siti, e ovviamente non è possibile modificarlo. Cosa accade: o questi siti si beccano un bel testo duplicato, oppure creano una pagina senza testo ma con il link al mio bando. Insomma, ambedue i casi poco graditi a Google.
E quindi: diventerà impossibile riprodurre anche un solo testo copiato, seppure in maniera lecita e pulita?
A mio avviso occore fare un distinguo:
se TUTTO il mio sito fosse composto da pagine contenenti non la vera risorsa me bensì link ad altri siti, il tutto infarcito di Adsense, allora sarei una content farm.
Tutto il discorso dei contenuti duplicati è vecchio quasi quanto Google e, da quanto ho capito, qui non si parla soltanto di contenuti duplicati, ma di siti INUTILI, che rubano spazio ad altri, come dice bluewebmaster:
intanto spesso "aggregano" da altri aggregatori , che a loro volta aggregano da altri , per cui il povero visitatore se davvero è tenace e desidera arrivare alla fonte originale , deve fare una serie di "salti" incredibili spesso passando per 3 o 4 aggregatori che sono quasi sempre
Ma tutto ciò trascende il contenuto duplicato, poiché io potrei creare una pagina chiamata - realizzazione siti firenze - ci metto un testo originale generico e poi link a tutti siti di webmaster fiorentini.
Se facessi così per tutto il sito, sarei una content farm, pur non facendo contenuto duplicato, tuttavia, sarei anche utile all'utente, perché questi avrebbe una lista utile di ciò che cerca. Però la domanda è un'altra: non sarebbe meglio, per l'utente, anziché trovare pagine del genere in prima posizione, trovare direttamente quella del webmaster fiorentino di turno? Ovviamente sì, ecco il punto.
Forse sto parlando della scoperta dell'acqua calda, ma a mio avviso occorre tenere ben distinti i due discorsi, ovvero, quello del contenuto duplicato, che è una cosa, e quello del "content farming" che è un'altro.
-
@444523 said:
Concordo... è già accaduto qualcosa di grosso nelle serp, loro dicono che il Panda Update non è stato ancora introdotto, ma io non ci credo... probabile che lo stiano ancora "settando", ma è in corso qualcosa, di sicuro...
Concordo anch'io, ma non ho certezza si tratti del Panda.
-
Quoto pienamente Web Hunter.
Anche se per gli "aggregatori" la ricetta sarebbe quanto mai semplice : non se ne mette in discussione l'esistenza o la funzione ( quale poi mi piacerebbe saperlo! ) , ma semplicemente gli effetti devastanti che si riflettono anche su AdSense indirettamente.
Basterebbe considerare che se un sito pubblica l'abstract di un articolo, significa semplicemente che l'intero articolo è pre-esistente all'abstract stesso, quindi , se questo accade molte volte per lo stesso sito e per molti siti è una content farm di poco o nessuna utilità.
Diverso è il discorso per il replicate di un articolo : ma questo può accadere qualche volta per un sito , ma appunto "qualche volta" : se è sistematico è già qualcosa di diverso dallo sporadico.
Se non ho capito male Panda andrebbe in tal senso : ben venga allora , qualsiasi sia poi la risultante.
-
Quoto anche io Webhunter. Non ci resta, fondamentalmente, che aspettare che Panda arrivi in Italia, e i presupposti suggeriscono che ne vedremo delle belle. In questi giorni volevo girare su qualche forum estero per capire cosa diceva la gente nei paesi in cui già è in azione (anche se poi è una cosa che dà solo una vaga idea, bisogna vedere poi come andrà con la realtà italiana), ma non ho ancora avuto il tempo di farlo.
-
Leggendo un pò in giro, sopratutto alcune discussioni su webmasterworld, sembra che siate un pò fuori strada. Gli aggregatori non sembra che abbiano subito grossi danni con questo update rispetto ad altri siti con contenuti originali ma poco rilevanti, troppo ottimizzati, con 2 o tre banner pubblicitari (non solo Adsense) "sopra la piega". Pare invece che vi sia stato un inesorabile avanzamento di pagine spam e sex, e molte query propongono contenuti vecchi di secoli (2006-2007).
Sembra che il fattore rilevante sia la "qualità grafica" delle pagine più che il contenuto.... duplicato o originale che sia. Pare anche che un fattore rilevante (GA) sia il tempo di permanenza nel sito, la frequenza di rimbalzo e altri fattori che GG estrapolerebbe dai siti che hanno GA, utilizzano il WMT e tutti gli strumenti che il motore mette a disposizione.
C'è in USA qualche sito che ha visto riconquistare posizioni quando ha eliminato tutti questi strumenti....
Google perde quote di mercato... se non sistema le cose mi sa che ne perderà molte di più....
In Italia?? si copiano tutti.... contenuti originali non ve ne sono, e quelli che ne hanno parvenza sono quasi sempre copiati da siti all'estero.
In UK è stato penalizzato, tra gli altri, Ciao (by Microsoft) e molti sostengono che la Serp, qualsiasi serp, sia dominata nei topfive da prodotti GG.... (blogspot, GG news, GG map) che bellezza!!
Evviva il pandalizer!!
-
Ho dovuto inviare una richiesta di riconsiderazione... mai accaduta una cosa del genere in 10 anni: ormai vengo superato da "paginette" singole non aggiornate da mesi, neanche siti...
Penso ci sia davvero qualcosa che non va... anche i miei concorrenti e quello che seguo in particolare (ed è un bel sito) è in grossa difficoltà come me... sono impazziti.
Potrei capire se il mio sito avesse due-tre anni, ma dopo 10 anni si accorgono che è una schifezza? Non è che stanno perdendo il controllo di questo mostruoso database? Temo proprio di sì...
Loro dicono di no, ma secondo me su alcune serp specifiche il Panda è stato già introdotto anche in Italia, probabilmente stanno facendo delle verifiche prima di estenderlo globalmente...
-
444523, anch'io la pensavo come te, ma ti assicuro che panda non è ancora arrivato in Italia, il giorno in cui arriva ci saranno decine di thread... in uk ci sono siti completamente spazzati via da Google. Per fare l'esempio citato da taolo, ciao.co.uk ha perso il 99% del traffico da Google, non il 10 o 20% e così moltissimi altri siti famosi e non. È vero che conta moltissimo la grafica, ancora di più il rapporto pubblicità/contenuti. Sui dati riguardanti il tempo di permanenza, frequenza di rimbalzo etc ci sono opinioni contrastanti, i dati non sono univoci.
-
in ogni caso è vero che google sembra, per la prima volta, in grossa difficoltà.
-
Sì, infatti, come ho detto precedentemente penso possa essere stato inserito su alcune serp e non globalmente... hanno subito un forte calo i siti migliori del mio settore... e sono saliti siti che sinceramente non avevo mai visto.
Se questa è l'alba del Panda stiamo a posto... vediamo che faranno della mia lettera di considerazione. Tanti anni fa mi risposero personalmente per un problema che si era creato nelle serp... incredibile.
Adesso ovviamente non ci spero...
-
Volevo condividere con voi a scopo di commento quanto scritto in questo interessante articolo che conferma come ci sia qualcosina che non va...
seomoz.org/ugc/postpanda-your-original-content-is-being-outranked-by-scrapers-amp-partners
Un bel paragone post-panda tra la serp di GG e quella di Bing.
-
Hanno già chiarito in USA che non valutano richieste di riconsiderazione legate al panda update in quanto cambiamento algoritmico. Se invece non c'entra panda puoi avere buone speranze. Posso chiederti quanto traffico hai perso?
Grazie taolo per il link... effettivamente c'è molto che non va.
C'è veramente da preoccuparsi, almeno negli USA Bing ha il 30% delle ricerche quindi chi è stato colpito da panda ha un minimo appiglio su cui ripartire, qui da noi chi sparirà da google per il panda update è spacciato... orribile situazione