• User

    Il nuovo algoritmo lanciato a livello mondo non centra con Panda. Non ha le caratteristiche di Panda. Sembra più qualcosa che colpisce i contenuti duplicati (infatti ha colpito molti e-commerce), le pagine di bassa qualità (paginazioni, tag, ricerche) e comunque la longtail.
    E poi nelle SERP che analizzo vedo che sono stati premiati i siti di comparazione e recensione prodotti: siti con alto trust, ma poco contenuto. Panda non fa questo, almeno in base a tutto ciò che abbiamo letto in questi mesi. Anche Enrico Altavilla conferma che Panda non centra un fico secco.

    Tornando a noi.
    Sono giorni che faccio analisi approfondite sui dati ma non riesco a trovare un pattern comune.

    Piersante Paneghel su Twitter mi ha detto: "...per ora mi pare che il pattern colpito sia: IF same-owner AND dupe-site THEN both-site drop traffic. No Panda"

    A me però il caso non è questo. E' diverso.


  • User Attivo

    searchengineland.com/official-google-panda-update-2-2-is-live-82611
    il 16... proprio il giorno in cui iniziano le anomalie su molti miei siti che comprendono le caratteristiche rifiutate dal panda dite ancora che è un caso o uno dei 500 cambi di algoritmo ??? 😮


  • Super User

    Io il calo lo noto dal 14, quindi dubito fortemente che la causa sia la stessa ;).


  • User Attivo

    In qualcosa sembriamo tutti d'accordo... il calo c'è stato.

    Ma se c'è chi scende, non dovrebbe anche esserci chi sale?


  • User Attivo

    Naturalmente c'è chi sale, ma saranno dosati forse in modo più omogeneo soprattutto tra tanti piccoli siti le percentuali di crescita saranno quasi irrilevanti per "dirlo in giro".


  • Super User

    Il sito che io porto come esempio di perdita non ha perso direttamente, ma si sono praticamente annullate le visite provenienti da siti di Article Marketing, quindi credo che abbiano perso posizioni in massa ;).


  • User

    @emizz said:

    Il problema non è nel nome dell'aggiornamento: Google ogni giorno, anche più volte al giorno fa modifiche ai suoi algo.

    Lo dici perché lo sai per certo o ipotizzi? No, perché nonostante Google dica di effettuare 500 update l'anno, non mi risulta molto plausibile questa cosa. Di solito, chi sviluppa software - l'algoritmo di ranking è software - non è che fa le modifiche al codice in tempo reale. Di solito si passa per varie fasi:

    • analisi (che modifiche devo fare?)
    • sviluppo (faccio le modifiche)
    • test in ambiente di sviluppo (vediamo se funzionano le mie modifiche)
    • parallelo in ambiente di produzione (vediamo se funzionano "dal vivo")
    • rilascio in produzione (ok, funzionano, rilasciamo la modifica)

    Ora, fare queste operazioni più volte al giorno mi sembra improbabile, anche perché i test potrebbero richiedere giorni. Se non si segue questa procedura, un banalissimo errore di codice, potrebbe fare danni mostruosi. Non so, si parla anche di siti che sono quotati in borsa... 😮


  • User

    Grazie SirVester della splendida spiegazione sull'ingegneria del software... ma stiamo parlando di Google 😉

    Comunque l'ha dichiarato Google stesso che aggiorna l'algoritmo anche 500 volte l'anno.


  • Super User

    Ciao SirVester,

    La fonte ufficiale che afferma che gli aggiornamenti (dai più importanti ai meno importanti) sono 500 annui la puoi trovare qui: http://googlewebmastercentral.blogspot.com/2011/05/more-guidance-on-building-high-quality.html


  • User

    Uno dei 500 "search improvements" può essere anche un piccolo cambio di valore di un parametro, non necessariamente qualcosa di estremamente complesso da chiedere test particolarmente accurati.


  • User

    Analizzando un po' più accuratamente le mie statistiche, noto che sono state colpite soprattutto le pagine foglia, mentre la parte "strutturale" dei siti sembra passata quasi indenne.

    Esempio di un mio sito (15 Giugno vs 14 Giugno)
    Pagine strutturali = -10%
    Pagine foglia = - 35%

    Stesso sito (martedì 21 Giugno vs martedì 14 giugno)
    Pagine strutturali = +5%
    Pagine foglia = - 13%

    La stessa cosa mi accadde con proporzioni simili esattamente un anno fa (precisamente tra il 15 ed il 17 Giugno), risolvendosi poi da sola senza alcun intervento da parte mia nel giro di alcune settimane.


  • Super User

    @Ilprincipino89 said:

    In qualcosa sembriamo tutti d'accordo... il calo c'è stato.

    Ma se c'è chi scende, non dovrebbe anche esserci chi sale?

    E' quello che sostengo io !

    Io , se posso dare un contributo , tra le realtà dei siti che gestisco , ho notato che quelli che aggiorno più di frequente stanno risalendo , e per alcune chiavi importanti, anche di molte posizioni, mentre quelli meno aggiornati c'è un discreto calo .

    Altro fattore : sto notando che per alcuni "contenuti" simili , o per forza di cose minimamente duplicati , c'è stato un calo .

    Un ultimissima cosa : per due dei siti, la cui risalita in serp per alcune chiavi importanti è più decisa e marcata, ho notato che questo è avvenuto dopo un 8 o 9 giorni dopo che io abbia chiesto la rimozione forzata da parte di due aggregatori non autorizzati da me ( in un caso due aggregavano a loro volta da un altro aggregatore ! ) al contenuto proveniente dalla mia fonte.

    Questa "coincidenza" ( chiamiamola così ) ancora una volta sostiene l'idea che gli aggregatori facciano più danni del prevedibile !


  • Super User

    Ho confrontato quello che più o meno sappiamo di Panda, con quello che è accaduto sulle SERP anche italiane il 15 giugno circa. Tutto questo grazie alle vostre testimonianze che ho cercato di riassumere (e un po' quelle sparse in rete).
    E' da prendere con le pinze, modificabilissimo, e riguarda situazioni tipiche/dati medi.

    Dimensione sito

    Panda: grande
    15June: piccola

    Tipologia sito

    Panda: comparatori, aggregatori, siti di article marketing, content farm
    15June: ecommerce, blog che si fanno "aggregare"

    Calo di traffico

    Panda: 50%
    15June: 30%

    Dove colpisce all'interno di un sito

    Panda: ovunque
    15June: pagine in profondità, pagine/keywords che generano alto bounce rate e basso tempo permanenza nel sito

    Durata minima della penalizzazione

    Panda: 1 mese circa
    15June: pochi giorni

    Possibili fattori di penalizzazione

    Panda: qualità, thin content, cattiva esperienza utente, usare contenuti altrui
    15June: duplicazione interna/esterna, farsi usare i contenuti

    Giusto? Vi ritrovate?

    In ogni caso ben vengano modifiche, aggiunte, osservazioni.


  • User

    @emizz said:

    Grazie SirVester della splendida spiegazione sull'ingegneria del software... ma stiamo parlando di Google 😉

    Comunque l'ha dichiarato Google stesso che aggiorna l'algoritmo anche 500 volte l'anno.

    Ah, beh, se lo dicono Google e le fonti ufficiali...

    Lo avevo premesso pure io che loro dichiarano 500 update l'anno o sbaglio? Non è che me lo dovete ripetere in due. So leggere pure io Matt Cutts e googlewebmastercentral. Da qui a bersi tutto quello che dice però, ce ne passa. Una modifica ad una variabile? Chi è mai stato sviluppatore sa bene che anche modificando un punto puoi fare danni enormi. Il buonsenso fa supporre che qualsiasi virgola venga modificata, sia soppesata per bene.

    Comunque, una volta per tutte:

    **Ma secondo voi "Google-Matt-Cutts-Webmastercentral", ha interesse a dire le cose come stanno? Ha interesse a far capire realmente quali sono i criteri che determinano il ranking?

    **P.S.: emizz, algoritmo = software. 😉


  • User Attivo

    @Webmaster70 said:

    Ho confrontato quello che più o meno sappiamo di Panda

    Tipologia sito

    Panda: comparatori, aggregatori, siti di article marketing, content farm

    Magari fossero solo quelli.


  • Super User

    @Ilprincipino89

    Infatti mi sono riferito a situazioni tipiche più a rischio.


  • User Attivo

    @Webmaster70 said:

    Infatti mi sono riferito a situazioni tipiche più a rischio.

    Si si, non voleva esser una critica. Purtroppo sembran esser stati colpiti un po' tutti, anche siti con alto trust e contenuti a dir poco curati ed originali. Un esempio potrebbe esser Master New Media.


  • ModSenior

    Ma per Master New Media ti riferisci al fatto che è stata colpita dal Panda nella versione in inglese oppure dal fenomeno 15June come l'ha battezzato Webmaster70?

    Valerio Notarfrancesco


  • Super User

    La penalizzazione di Master New Media in seguito al Panda Update probabilmente è stata causata dalla pubblicità che si vede appena entri su un suo articolo Above The Fold.

    Immaginati di arrivare su un articolo di uno sconosciuto e la prima cosa che vedi è una pagina bianca con un bel banner in mezzo, fai presto a tornare indietro, anche se in realtà il contenuto sotto è pienamente di qualità ed interessante.


  • User Attivo

    @vnotarfrancesco said:

    Ma per Master New Media ti riferisci al fatto che è stata colpita dal Panda

    Si e piuttosto pesantemente.

    @Gibbo89 said:

    La penalizzazione di Master New Media in seguito al Panda Update probabilmente è stata causata dalla pubblicità che si vede appena entri su un suo articolo Above The Fold.

    Va però considerato che la pubblicità above the fold è la più redditizia e rinunciarvi significa spesso far collassare le entrate. Google stesso indica come zona calda quella above the fold.