• User Attivo

    @amosgitai said:

    Leggo in giro che il nuovo algoritmo di Google penalizzerà, per fortuna, i contenuti duplicati. Chi ne farà le spese oltre ai furbi del "copia/incolla" saranno gli aggregatori di news.

    Purtroppo... non è così. Magari lo fosse!
    Sono molto più ambiziosi, pare pretendano di capire la qualità intrinseca del sito... magari punissero solo gli aggregratori e i copia&incolla...

    In america il sito suite101.com ha perso il 94% da Google, secondo il suo autore. Non so se poi è cambiato qualcosa e ha recuperato... la dichiarazione è di alcuni giorni fa, a causa del nuovo algoritmo...


  • Super User

    L'unica cosa da fare è aspettare e vedere che cosa succederà in Italia, è meglio non fare ipotesi per ora, comunque in linea di massima dovrebbe andare a punire i contenuti duplicati (quindi anche alcuni aggregatori).


  • User Attivo

    Certamente... ma quanto accade negli Stati Uniti è davvero poco incoraggiante e non è proprio come dite voi.

    Se un algoritmo deciderà, come sta accadendo ora, la qualità di un sito, ne vedremo davvero delle belle. Suite101 non ha contenuti copiati, paga i writer, forse all'apparenza un po' spammoso, ma niente a che vedere con aggregratori o testi copia&incolla...

    Colpiti duramente anche colossi come hubpages.com e buzzle.com che non sono aggregratori ma pagano i writer per scrivere articoli comunque originali. Google ha deciso che la qualità di questi siti è pessima se hanno perso circa il 70%. Evidentemente chi scrive a pagamento, rispetto ad un appassionato, tende a dare poche informazioni di qualità... secondo Google.

    Speriamo bene... per ora non promette nulla di buono.


  • User

    Io dico la mia poi per essere sicuro su quello che accadrà dobbiamo solo aspettare... per me sta per finire l'era della quantità, da quello che so suite101 arriva ad inserire 50 news al giorno e le persone che scrivono forse non avevano neanche le basi di un seo, quindi ci ritroviamo con x articoli/news scritti male o di pessima qualità ( non possiamo sapere le statistiche di quel sito come rimanenza sul sito o frequenza di rimbalzo ). Google ha confermato di essere a conoscenza della situazione di quel sito quindi non credo che il filtro sia scattato erroneamente.

    Hanno cambiato i parametri di valutazione di un sito, dobbiamo solo capire ora su cosa si concentrano di più... in italia abbiamo siti simile a suite101 e infatti i loro articoli sono di pessima qualità ( lato seo ), vengono scritti solo per soldi mancano di approfondimento oppure sono completamente errati nell'informazione, quindi è giusto che vengano penalizzati.

    Questa è solo una mio opinione non conosco suite101 e quindi non posso dire con certezza dove o cosa abbia sbagliato.


  • User Attivo

    Purtroppo non è così semplice... hanno perso una quantità di enorme di utenti anche blogger seri ed influenti come digital inspiration.

    Guadagna bene utenti Yahoo Answers e non è certo scritto da persone con profilo SEO! Anzi, molte risposte sono ridicole e raffazzonate...

    Secondo me, come al solito, hanno combinato un gran casino ed occorreranno mesi prima che corrano ai ripari... vediamo che combineranno in Italia, ma le premesse sono, direi, agghiaccianti.
    :bho:


  • User

    azz... anche digital inspiration, e allora è come dici tu stanno facendo un gran casino speriamo che per quando arriva in italia le cose siano già sistemate... speriamo bene!!! 😞


  • Super User

    Il fatto è che non danno motivazioni chiare sul perchè della penalizzazione di Suite101, dicono semplicemente che per loro è giusto così, in pratica si arrampicano sugli specchi.


  • User Attivo

    Debbono comunque mantenersi sul vago e tacere misteriosamente sui motivi... così potranno far marcia indietro più avanti.

    Se dicessero che è stato penalizzato per motivi precisi, poi non potrebbero più ri-mangiarsi le parole. La sensazione è la solita: estremamente difficile affidarsi a degli algoritmi per stabilire la qualità di un sito.

    Le vittime negli Stati Uniti sono tante ed eccellenti, vedrete che ci saranno nuovi "aggiornamenti" nelle prossime settimane...


  • Community Manager

    @444523 said:

    Secondo me, come al solito, hanno combinato un gran casino ed occorreranno mesi prima che corrano ai ripari... vediamo che combineranno in Italia, ma le premesse sono, direi, agghiaccianti.
    :bho:

    Parola davvero azzeccata. Concordo 🙂


  • User

    Uno dei miei blog è stato penalizzato per contenuti duplicati, e da quello che leggo nel forum webmaster di google non sono l'unica in questa situazione.
    La mia penalizzazione è stata causata da un aggregatore a cui mi ero iscritta da pochi giorni inserendo i feed dei miei post, l'aggregatore era meglio indicizzato del mio blog e google ha deciso di lasciare lui sui risultati di ricerca e non me. Google infatti pare sostenga una posizione del tipo "facciamo fuori i contenuti duplicati lasciando il contenuto dove riteniamo più idoneo che sia visualizzato", senza accertare quale sia la fonte.
    Ora ho fatto richiesta di riconsiderazione e ho tolto i feed dall'aggregatore, i miei articoli non sono più duplicati (anzi in rete non ci sono proprio più) e ho contattato il webmaster per chiedere la rimozione anche di tutte le pagine con i titoli (e i link oramai inattivi ai miei post) che sono ancora indicizzati in rete.


  • User Attivo

    @bblogger said:

    La mia penalizzazione è stata causata da un aggregatore a cui mi ero iscritta da pochi giorni inserendo i feed dei miei post, l'aggregatore era meglio indicizzato del mio blog e google ha deciso di lasciare lui sui risultati di ricerca e non me.

    E' uno dei problemi più grossi di Google, è stato anche ammesso da un ingegnere che lavora in Google (era presente ad un importante raduno in America, secondo almeno uno dei partecipanti a questo convegno, che ha postato poi su WebmasterWorld).

    Quando capitano cose simili è "obbligatorio" per il webmaster incolpevole dare comunicazione a Google (e sperare), gli algoritmi non riescono a distinguere in questo caso, o perlomeno, capita spesso...


  • User Attivo

    Non resta che tremare e attendere ...


  • User Attivo

    sono d'accordo con webhunter, eliminare definitivamente lo spam è impossibile.. per il resto, credo che l'algoritmo nuovo combinerà una serie di casini ma - allo stesso tempo - mi chiedo se non abbiano già preso in considerazione la questione ... vediamo che succede, in particolare è la questione degli aggregatori di notizie che mi "incuriosisce"!


  • User Attivo

    @lamiadirectory said:

    vediamo che succede, in particolare è la questione degli aggregatori di notizie che mi "incuriosisce"!

    Dovrebbero essere ridimensionati e non capisco perchè Google li abbia tollerati sin dall'inizio, ormai sono diventati una piaga...
    :bho:


  • User

    @444523 said:

    Quando capitano cose simili è "obbligatorio" per il webmaster incolpevole dare comunicazione a Google (e sperare), gli algoritmi non riescono a distinguere in questo caso, o perlomeno, capita spesso...

    Ma allora perchè introdurre il pubsubhubhub, non dovrebbe servire anche per segnalare il primo ping a un articolo? google mette a disposizione uno strumento che poi non utilizza nei suoi algoritmi?

    Sono molto tentata di segnalare pagine come questa
    http: //webpedia.altervista.org /post/102085/
    attraverso il link per l'aggiunta e la rimozione delle pagine a google.
    Quanto tempo ci mettono gli spider a capire che sono vuote?


  • User

    In USA e ancora di più in UK il panda update sta portando tantissimi stravolgimenti, molti siti hanno perso interamente il traffico da Google da un giorno all'altro... e riguarda tutti i siti, il discorso content farm è davvero di poco conto rispetto al cambiamento globale. Ci sarà da ridere/piangere nelle prossime settimane quando il panda update arriverà in Italia... auguri a tutti...


  • User Attivo

    @bluemountains said:

    ci sarà da ridere/piangere nelle prossime settimane quando il panda update arriverà in italia... auguri a tutti...

    proprio vero!


  • Super User

    Premesso che ho idea che qualcosa nella serp di G. è già avvenuta ( non so di preciso cosa ne so farmene un'idea, ma di sicuro ho la sensazione che G. sia più attento davvero ai contenuti ...), il problema degli aggreggatori è davvero una piaga e io l'ho ribadito più volte in alcuni miei interventi.

    Qui bisona distinguere quelli "professionali" ( e sono pochi ) da quelli "dilettantistici" ( e sono maggioranza) : questi ultimi sono davvero devastanti e l'ho sottolineato più volte.

    E per una serie di motivi : intanto spesso "aggregano" da altri aggregatori , che a loro volta aggregano da altri , per cui il povero visitatore se davvero è tenace e desidera arrivare alla fonte originale , deve fare una serie di "salti" incredibili spesso passando per 3 o 4 aggregatori che sono quasi sempre MFA.

    Eppure basterebbe che l'algoritmo di G. tenesse presente gli abstract tipo se è riprodotto solo in quello : a questi potrebbe applicare una penalizzazione, visto che aggregano anche senza nessuna autorizzazione e quindi, fondamentalmente , a insaputa del publisher.

    Non ho mai capito , visto che sarebbe così semplice colpire le content farm, perchè ancora non lo abbia fatto ( speriamo che avvenga con Panda Update ).

    Ma anche quelli "professionali" ( evito di fare nomi! ) sono una piaga : ho dovuto richiedere la cancellazione da un paio di aggregatori blasonati perchè, statistiche alla mano, non solo nella serp apparivo sempre dopo, in alcuni casi i miei originali nemmeno comparivano, ma per quanto il traffico provenienti da questi aggregatori rappresentavano pochissimi visitatori al giorno tipo 15 visitatori su 6.000 !
    Insomma roba da ridere.

    In compenso i miei risultati venivano dopo questi aggregatori , quando ...comparivano.
    Dopo la cancellazione la posizione è migliorata , non solo , ma ora tutti i post vengono "digeriti" dalla serp .

    Un altra "piaga" degli aggregatori "dilettantistici" è quella che non esiste , il più delle volte, un contatto al quale richiedere la cancellazione e quando esiste o ti ignorano o ti canzonano.

    Un altro problema è rappresentato anche dai forum-fanzine, quasi sempre su piattaforme gratuite : su questi non è difficile che utenti riproducano interi articoli.
    Quando si protesta con gli admin dei vari forum se ti va bene ti rispondono che loro non sono responsabili di quello che fanno gli utenti, in molti casi vieni insultato ( come è capitato a me ) e hai anche la beffa oltre il danno per altri motivi.

    A questo punto le uniche "armi" a disposizione sono le segnalazioni a Google e ad AdSense per contenuti protetti, sperando che il Panda Update faccia il proprio dovere come promesso.

    Chissà se sarà mai così e se chi lavora da mattina a sera possa vedere premiati davvero i propri sforzi.


  • User Attivo

    @bluwebmaster said:

    Premesso che ho idea che qualcosa nella serp di G. è già avvenuta

    Concordo... è già accaduto qualcosa di grosso nelle serp, loro dicono che il Panda Update non è stato ancora introdotto, ma io non ci credo... probabile che lo stiano ancora "settando", ma è in corso qualcosa, di sicuro...


  • User Attivo

    Per me questo Panda è qualcosa che, almeno da quanto ho compreso, dovrebbe andare oltre la mera individuazione di un contenuto copiato. Mettiamo che io organizzi un concorso a scopo completamente benefico: ovviamente devo inviare il bando a decine, centinaia di siti, e ovviamente non è possibile modificarlo. Cosa accade: o questi siti si beccano un bel testo duplicato, oppure creano una pagina senza testo ma con il link al mio bando. Insomma, ambedue i casi poco graditi a Google.

    E quindi: diventerà impossibile riprodurre anche un solo testo copiato, seppure in maniera lecita e pulita?

    A mio avviso occore fare un distinguo:

    se TUTTO il mio sito fosse composto da pagine contenenti non la vera risorsa me bensì link ad altri siti, il tutto infarcito di Adsense, allora sarei una content farm.

    Tutto il discorso dei contenuti duplicati è vecchio quasi quanto Google e, da quanto ho capito, qui non si parla soltanto di contenuti duplicati, ma di siti INUTILI, che rubano spazio ad altri, come dice bluewebmaster:

    intanto spesso "aggregano" da altri aggregatori , che a loro volta aggregano da altri , per cui il povero visitatore se davvero è tenace e desidera arrivare alla fonte originale , deve fare una serie di "salti" incredibili spesso passando per 3 o 4 aggregatori che sono quasi sempre

    Ma tutto ciò trascende il contenuto duplicato, poiché io potrei creare una pagina chiamata - realizzazione siti firenze - ci metto un testo originale generico e poi link a tutti siti di webmaster fiorentini.

    Se facessi così per tutto il sito, sarei una content farm, pur non facendo contenuto duplicato, tuttavia, sarei anche utile all'utente, perché questi avrebbe una lista utile di ciò che cerca. Però la domanda è un'altra: non sarebbe meglio, per l'utente, anziché trovare pagine del genere in prima posizione, trovare direttamente quella del webmaster fiorentino di turno? Ovviamente sì, ecco il punto.

    Forse sto parlando della scoperta dell'acqua calda, ma a mio avviso occorre tenere ben distinti i due discorsi, ovvero, quello del contenuto duplicato, che è una cosa, e quello del "content farming" che è un'altro.