• ModSenior

    Credo che il problema sia si da cercare nel filtro antiduplicazione.

    Come giustamente evidenzia Deborah chiunque potrebbe fare -in certe condizioni di dominio non troppo in trust- sciacallaggio dei contenuti altrui, replicarli sulla propria home, "spammarli" attraverso i social.

    Risultato ? 2 onde diverse:

    1. L'onda da surf, che posiziona il sito replicante come sito più credibile
    2. L'onda dello tzunami che penalizza il sito originale.

    E' questo il problema che Deborah ha evidenziato e attende una risposta "ufficiale" da Google: cosa faccio in queste condizioni ?

    Devo cambiare 400 pagine per rendere originale il mio contenuto ?
    Devo rafforzare il trust del mio sito per rendermi ancora più credibile a Google ?
    O devo andare di avvocato ? 🙂


  • Super User

    Scusate se mi intrometto ma la situazione credo che sfiori anche il mio problema e chiedo scusa in anticipo se , involontariamente, magari finisco per dire qualche "corbelleria".

    Il primo punto è che mi è sembrato sempre di aver letto che Google era in grado di "riconoscere" i siti che "copiavano" vuoi conforntando le date vuoi per altri "algoritimi".
    Ora tutto a un tratto sembra che questa logica non sia più valida, e mi spiego.
    Mettiamo, come credo anch'io, che sia vero che gli aggregatori siano motivodi penalizzazione dei siti "originali".
    In altra parte del forum ho fatto notare di aver scoperto che ci sono aggregatori che aggragano da altri aggregatori che a loro volta lo fanno da altri e sono siti chiaramente, palesemente MFA.
    Ci siamo detti anche che la politica di Google è quella della massima fruibilità dei contenuti originali per l'utente finale bene.
    Ma possibile mai, chiedo, che Google non si sia accorto che io ( faccio esempio ) per cercare quella notizia ho dovuto sopportare ben 3 passaggi per un aggregatore prima di arrivare alla fonte e leggere l'articolo completo e originale, cosa che stona con la "politica" di cui si vanta?
    Mi sembra strano.

    Io ad esempio , come suggerisce giustamente LaBussola, ho iniziato a chiudere i rubinetti dei Feed per evitare la pirateria : ma a questo punto è penalizzato chi vuole leggere i miei articoli attraverso i feed.
    E' giusto , secondo Google, questo?
    Ci siamo detti che i "potenti" algoritmi di Google fossero in grado di riconoscere chi copia : sembra, alla luce di questo che o gli algoritmi di Google abbiano una falla persistente, o abbiamo creduto per mesi a una bufala.

    Qualcuno dirà, giustamente, che è questione di thrust : ok, dico io, ma allora un sito neo-nato , anche di un 6/12 mesi , che non ha avuto il tempo materiale di avere backlink ecc. ,soccombe, giusta osservazione di LaBussola in mezz'ora di lavoro di qualche concorrente.
    Ma allora significa che tra poco avremo tanti publisher scoraggiabili e scoraggiati che non produrranno più contenuti originali ( e qui entra il sospetto che sia una politca pro-vendita news ).

    Quindi in ultima analisi voglio proporre dei contenuti : bene devo eliminare i feed, perchè invece di punire il colpevole, si punisce la vittima.
    devo stare attento anche a una sola frase ( e chi fa il giornalsita sa che una stessa frase in certi articoli è facile che sia usata da altri!) formata da 6 o 7 parole.
    Ho letto l'interessantissima pagina di Madri proposta da La Bussola : sono rimasto impressionato, lo ammetto.
    Addirittura l'algoritmo va a semantizzare il circoscritto di una frase e a confrontarlo!
    Ma...mi sembra una cosa mostruosa!
    faccio un esempio concreto : la notizia di Fabrizio Corona condannato e la sua frase " mi vergogno di essere italiano".
    Scusate ma una news riporta oggettivamente anche delle dichiarazioni : se un giornalista deve preoccuparsi e avere il timore che proprone uno schema di notizia con frasi pronunciate come altri 6 magazine, mister Google pensa che sia contenuto duplicato , è mostruoso.
    Vada per gli articoli copiati, vada per interi paragrafi riportati in blocco, ma una frase formata da 6 o 7 parole ( se ho capito bene) mi sembra un assurdità.

    A questo punto, ad esempio, visto il fenomeno che accompagna i miei siti e qualche altro, posso o no pensare che Google si stia predisponendo a una "vendita" di news e quindi cerca di fare fuori tutti quelli che possono mettersi in concorrenza diretta?

    Come constatavamo io e LaBussola ( per il mio tipo di presunta penalizzazione ) se c'è un duplicato, questo è duplicato 7 giorni prima come 7 giorni dopo.
    Come allo stesso modo che senso ha "penalizzare" tutti i siti raggrupati sotto un medesimo account, posti su server diversi, con temi diversi, cma diversi, addiritttura intestati a registrant diversi?

    Posso ammette che un publisher ha 10 siti, ne toppa due, ok la penalizzazione avviene su quei 2 , ma gli altri, integerrimi, continuano la loro strada.
    Invece no, pare cha accada anche ad altri una penalizzazione "globale" che mi fa pensare che a questo punto iscriversi ad Analytics o AdSense alla fine è un boomerang.

    E come ad esempio anche il dispendio di energie e tempo per scrivere ai "pirati" : alcuni rispondono e ti tolgono, altri no, altri ancora non hanno un recapito dove scrivere e hanno domini intestati all'estero : figurati se ti metti a fare causa.
    Ma dove sono i potenti algoritmi di Google in grado di riscontrare i pirati distinguendoli dalle vittime?

    Poi , ma lo scrivo nel mio post, per evitare di intasare questo, mi sono capitate altre due cose , contemporanee su tutti siti dello stesso account.

    Scusate, era anche una sorte di sfogo, anche perchè se le cose stanno così come ce le stiamo dicendo, presto saranno centinaia le persone che soffriranno del problema, a meno che non siamo stati colpiti noi dalla mannaia della sfiga, tipo nuvoletta di Fantozzi per intenderci ( almeno sdrammatizzaimo va 😄 ).


  • Super User

    Grazie ragazzi per le vostre preziose indicazioni e per condividere le vostre esperienze con tutti noi, è sempre un momento di crescita profonda. 🙂

    Tenevo comunque a precisare, che le mie considerazioni sono riferite anche ai contenuti duplicati e non esclusivamente ai fattori on/off page del sito.

    Infatti reputo che la penalizzazione sia scattata perchè piccole imprecisioni sommate hanno portato ad una "grossa" (naturalmente per Google) mancanza di qualità (penalizzando appunto il sito).

    Se si tratta di contenuto duplicato, cambiando i contenuti della homepage e delle pagine copiate, il sito dovrebbe tornare in fluttuazione entro 10-15 giorni, per poi rientrare in SERP nelle posizioni che gli spettano entro 30-45 giorni. 🙂


  • Super User

    @dechigno said:

    5] A livello di backlinking hai lavorato principalmente su una sola keyword "Prestiti veloci online" principalmente in homepage

    Potrebbe essere questo il **principale fattore di flag **che ha fatto scattare la penalizzazione successiva? (per contenuti duplicati).

    Magari da un valore statistico atteso, che scongiurava del tutto quelle anchor, Google ha capito che la popolarità era "innaturale" e al successivo indizio ha penalizzato.

    A pensarci bene però c'è pure da dire che il sito si chiama prestitivelocionline per cui appare anche naturale che sia lincato principalmente in quel modo e principalmente in home.


  • Super User

    Ciao Micky,

    si può darsi, la considerazione del keyword = dominio è corretta ma tieni presente che un linking naturale del dominio dovrebbe essere con queste anchor:

    prestitivelocionline.it
    www. prestitivelocionline.it
    http:/ /www. prestitivelocionline.it
    prestitivelocionline

    Queste sono le anchor "naturali"... 🙂


  • User Newbie

    La Risposta di un collaboratore GOOGLE sul Forum del Centro Webmaster Google

    google.com/support/forum/p/webmasters/thread?tid=0fae8d5d13eb138a&hl=it

    Mi pare ****************** 😉


  • ModSenior

    Ciao grindhouse e benvenuto nel Forum GT.

    Purtroppo devo contraddirti. Altrimenti come si spiega che in questo thread, relativo alla stessa penalty, Alfredo che è dipendente Google (e non semplice collaboratore) risponda così?

    Ciao a tutti,e grazie per le vostre segnalazioni, che ci aiutano a migliorare la qualità dei risultati di Google.
    [...]
    Non posteremo sul Forum i risultati dell'esame delle vostre segnalazioni


  • Super User

    Condivido la posizione di Mister.jinx, conosco personalmente Angelo Palma (abbiamo lavorato insieme ad un progetto) e a mio avviso questa sua affermazione è un po' troppo avventata, anche se effettivamente alcuni punti li condivido (li ho elencati nel primo post di risposta in questo 3D).

    Il problema qui è capire il motivo della penalizzazione, perchè lo sanno tutti che se prendiamo link da banche e siti finanziari ad elevato trust il sito esce dalla penalty.


  • ModSenior

    Gentile grindhouse, mi sembra che si sia iscritto appositamente per provocare persone che stanno discutendo civilmente.
    Se vuole esprimerci la sua opinione saremo lieti di ascoltarla, altrimenti sarò felice di indicarle dov'è l'uscita.
    🙂


  • Moderatore

    Prendendo questa frase dalla risposta sul forum google:

    Non si tratta di penalizzazione, ma solo di dover attendere che anche per quei siti che hanno preso il tuo posto sia finito il periodo di permanenza in quelle posizioni.

    Mi pare di leggere, visto l'uso della parolina "anche", che queste fluttuazioni sono legate ad un algoritmo di "time sharing" in cui tutti i siti valutati paritetici condividono la stessa posizione. Come una specie di ex-equo.
    Quindi le la fluttuazione è ciclica di n posizione, si può stabilire che c'è un ex-equo di n siti.

    Io avevo sempre pensato che questo "scalzare" di posizione fosse per valutare il bounce rate di un sito ritenuto interessante per i contenuti. In pratica se il sito si merita la posizione vuol dire che l'utente che ha cliccato sulla query non ne effettua una analoga per un tempo X, ma la costruzione della frase mi ha fatto pensare altrimenti.