• Super User

    Guardando un po quello che succede in serp anche ai miei competitor, credo che in Italia sia "felicemente" approdato il Panda ( che se non erro poi è il nome dell'ingegnere che ha messo a punto il "congegno" 😄 ).

    Ho constatato un po di cose .

    Sembra che influiscano molto la velocità del sito, la quantità di aggiornamenti, la navigabilità del sito e , non so come spiegare, l'originalità dei contenuti nelle stesse pagine del sito, nel senso che ho impressione che G. sappia meglio riconoscere se dello stesso argomento si parla nello stesso sito più volte, magari con un giro di parole ma nella sostanza sempre con il medesimo, o quasi , contenuto.

    Sono cose risapute ma da un po di verifiche fatte ( ovviamente ...sempre salvo miglior parere ) sembra che adesso abbiano molto più rilevanza .

    Difatti per alcuni miei siti che trattano uguale argomento ho notato che in uno di essi , dove effettivamente lo stesso argomento è trattato più volte con parole diverse ma con "contenuti" pressochè uguale , ha perso posizioni in serp, mentre quello che parla si dello stesso argomento ma frazionato in più aspetti e quindi con "contenuto" ( come se fosse diviso in "capitoli" ) ha avuto dei balzi incredibili.

    E' come se G. avesse migliorato di colpo il riconoscimento semantico degli argomenti trattati riuscendo, in qualche modo, a riconoscere se un "contenuto" è trito e ritrito da più articoli.

    Inoltre ( ma questa è una mia teoria ) è come se avesse imparato ( :mmm: ) a riconoscere anche i tempi di permanenza del visitatore sulle pagine dello stesso sito e non. .
    Le pagine ( meglio sottosezioni o sezioni ) infatti dei miei siti che hanno fatto dei "balzi" macroscopici sono proprio quelle che segnano un maggiore tempo medio di permanenza sulle stesse rispetto a quelle di altri miei siti che , pur nello stesso settore e trattando lo steso argomento ( quindi come sezioni con contenuti similari , insomma siti in "concorrenza" tra di loro ) hanno tempi di permanenza sulle pagine inferiori.

    Che G. faccia il ragionamento : se gli utenti restano a lungo sulle pagine di un sito questo sia più "rilevante" rispetto a un altro con tempi di permanenza inferiori ? Possibile?


  • User

    Io so che da quando hanno messo il nuovo algoritmo hanno fatto pingere molti webmaster. Soprattutto quelli che per anni si sono impegnati a portare in alto nelle serp il proprio sito.


  • User Attivo

    @bluwebmaster said:

    E' come se G. avesse migliorato di colpo il riconoscimento semantico degli argomenti trattati riuscendo, in qualche modo, a riconoscere se un "contenuto" è trito e ritrito da più articoli.

    Per me non riescono proprio a fare nulla...

    Per adesso vedo molta "spazzatura" con siti di poche pagine e non aggiornati da mesi che hanno superato siti autorevoli ed aggiornati quotidianamente con contenuti originali e 3-4 articoli al giorno.

    Praticamente sta avvenendo ciò che è accaduto negli Stati Uniti...

    Non voglio parlare del mio sito, ma quello di un concorrente che lavora molto bene, scrive personalmente i testi ed è decisamente autorevole nel suo campo (lo prendo spesso come esempio), è stato "massacrato", in pochi giorni è tornato indietro di due anni, come accessi...

    Spero sia solo un assestamento, inoltre voglio vedere tutti gli aggregratori retrocedere... perchè se non capita a loro non so a chi dovrebbe capitare!
    😮


  • User

    @444523 said:

    Spero sia solo un assestamento, inoltre voglio vedere tutti gli aggregratori retrocedere... perchè se non capita a loro non so a chi dovrebbe capitare!
    😮

    Aarei curioso di sapere cosa è successo ad un sito come ilbloggatore.com che comunque hanno un buon trust.


  • User Attivo

    Ad ogni modo è ancora presto per trarre delle conclusioni definitive... vedremo nei prossimi giorni, se non nelle settimane successive...
    :rollo:


  • Super User

    @Kilckk said:

    sarei curioso di sapere cosa è successo ad un sito come ilbloggatore.com che cmq hanno un buon trust.

    Ma se non erro il bloggatore è un aggregatore e il Panda Update pare che li penalizzi .
    E se lo fa non posso che essere d'accordo , intanto perchè è comodo fare business utilizzando il "lavoro degli altri" , e poi francamente alla fine fanno un lavoro come un motore di ricerca con il vantaggio però che sono sempre in vetta alla serp .
    Insomma le content farm , si spera, abbiano le ore contate.


  • User Attivo

    Negli USA, e chi segue quel mercato lo sa, si è pestato i piedi da solo, facendo in modo che siti basati su adsense, nel senso vero e proprio del termine, abbiano subito un crollo pazzesco proprio a causa di uno squilibrio adv/contents. Molti diranno che è giusto così, ma vorrei vedere cosa è successo agli incassi di Google, che ricordiamocelo, vive di pubblicità. E le content farm ha contribuito lui a svilupparle, grazie ai suoi compensi ed al suo premiarle in SERP.

    Adesso sembra che lo spauracchio Facebook ADS gli abbia fatto capire che o agli inserzionisti si danno utenti di qualità, o quelli migrano altrove. Ed era ORA, meglio un duopolio che un monopolio assoluto!

    Detto ciò: immagino che ancora sia molto indietro l'aggiornamento, se così non fosse, di certo non ha aumentato le qualità delle SERP. Per quanto mi riguarda, in un settore specifico ho sviluppato siti di bassa qualità, ma ad alta conversione (per le mie tasche!), stufo di veder premiata sempre e comunque la black hat, e sto avendo un incremento pazzesco, nonostante mi sia detto una volta uscito Panda: ca**o, proprio ora che mi son messo a fare cose sporche. Pensavo di aver perso il treno, ed invece......


  • User Attivo

    Il panda update penalizza i contenuti duplicati e i siti che "aggregatori" di notizie (proprio perchè usano articoli gia scritti da altri) ...e se mi permettete era anche ora... questo perchè alla fine questi siti (omaggiati dal caffeine fino ad oggi) non facevano altro che "usare" altri articoli per scalare le serp. Era ora che finesse questa era.

    Oltre a questo sembra che il panda non tenga più particolarmente conto (per ora) del numero degli accessi giornalieri per far scalare le serp, dato che per molti siti che gestisco sono apparso sopra a "colossi" del calibro di casa.it (finalmente direi) ....

    Un ulteriore boost (sostanziale direi) sembra essere dato dal social bookmarks, del genere condividi su twitter e facebook.


  • User Attivo

    @riccardo.mel said:

    Il panda update penalizza i contenuti duplicati e i siti che "aggregatori" di notizie (proprio perchè usano articoli gia scritti da altri) ...e se mi permettete era anche ora...

    Non è affatto così, in questo momento... quindi non è scattata alcuna ora. Come vi ha fatto notare MrB ha avuto addirittura un incremento su siti di scarso valore, mentre vedo il mio concorrente (un grande sito di qualità) retrocesso in modo vergognoso... anche il mio non lo meriterebbe, ma sono parte in causa e preferisco parlare di terzi.

    In questo momento le serp sono vergognose su certe key, piantiamola di dire che era ora... perchè fin'ora non è scattata alcuna "ora"...
    :ciauz:

    Se il mio concorrente risalirà (e se lo merita), sarò il primo a dirlo, per ora è punito pesantemente pur avendo poca pubblicità e ottimi contenuti originali... così come sono stato punito io che ho solo due banner adsense e nessun'altra pubblicità, più contenuti originali e mai copiati (ma ripeto, io sono parte in causa)...


  • User Attivo

    @444523 said:

    [...]
    C'è da dire che è anche molto strano che Google abbia applicato qualcosa di nuovo e poi lo stravolga in corso. Negli USA ad esempio chi è crollato il 24 Febbraio, tranne poche eccezioni, non ha rivisto ripristinate le sue posizioni, magari un lieve recupero, ma non completo o comunque nessun boost rispetto alla situazione di partenza.

    Con questo non voglio dire ancora niente, può anche essere che stia ricalcolando il valore dei siti, e per questo alcuni son saliti ed altri scesi, per alcuni impiega più tempo per altri meno. Però, al momento, un grosso autogol.


  • User Attivo

    @444523 said:

    Non è affatto così, in questo momento... quindi non è scattata alcuna ora. Come vi ha fatto notare MrB ha avuto addirittura un incremento su siti di scarso valore, mentre vedo il mio concorrente (un grande sito di qualità) retrocesso in modo vergognoso... anche il mio non lo meriterebbe, ma sono parte in causa e preferisco parlare di terzi.

    In questo momento le serp sono vergognose su certe key, piantiamola di dire che era ora... perchè fin'ora non è scattata alcuna "ora"...
    :ciauz:

    Se il mio concorrente risalirà (e se lo merita), sarò il primo a dirlo, per ora è punito pesantemente pur avendo poca pubblicità e ottimi contenuti originali... così come sono stato punito io che ho solo due banner adsense e nessun'altra pubblicità, più contenuti originali e mai copiati (ma ripeto, io sono parte in causa)...

    Dipende anche da come valuti la qualita'... in ogni caso come era stato per caffeine e' normale un periodo di rodaggio... sono sicuro che le serp si stabilizzeranno molto presto.

    Converrai con me però nel dire che era ora si dicesse BASTA agli aggregatori, avevano parecchio stancato..


  • User Attivo

    @riccardo.mel said:

    Converrai con me però nel dire che era ora si dicesse BASTA agli aggregatori, avevano parecchio stancato..
    Io direi che sarebbe ora anche di finirla di basare tutto sui backlinks, che è un problema molto più grave rispetto a qualche aggregatore... Però su questo si basa Google, e finché rimarrà così, la black hat vincerà sempre!


  • User Attivo

    @MrB said:

    [...]

    Sì, anche i backlinks rompono abbastanza sono d'accordo, siamo sicuri che in questo update non sia stato fatto nulla in tal senso?


  • User Attivo

    Prendendomi del tempo e analizzando molte singole pagine del mio sito è stranissimo come pagine più antiche, con ottimi articoli e tanti collegamenti con backlink univoci (anche dai social) siano state penalizzate ottenendo anche un 50% di calo. Invece, altre pagine, che secondo me erano più "sospette" (articoli poco interessanti e per questo quasi per niente linkati esternamente) siano salite...:rollo: (alcune anche del 20% mediamente), ma poichè la maggior parte delle pagine è di buona qualità in generale sono sceso parecchio...
    😄

    Come dicono su WebmasterWorld: i tizi di Google hanno girato un interruttore e si sono allontanati...:fumato:

    L'unica idea che ho, attualmente, è che siamo all'inizio in Italia, forse ci saranno davvero degli "assestamenti".


  • User Attivo

    @riccardo.mel said:

    Si anche i backlinks rompono abbastanza sono daccordo, siamo sicuri che in questo update non sia stato fatto nulla in tal senso?
    Per il momento, e lo sottolineo, assolutamente NO. Negli USA ho sentito parlare di una svalutazione dei backlinks di dubbia qualità, ma nessun riscontro nella realtà.


  • User Attivo

    @444523 said:

    Prendendomi del tempo e analizzando molte singole pagine del mio sito è stranissimo come pagine più antiche, con ottimi articoli e tanti collegamenti con backlink univoci (anche dai social) siano state penalizzate ottenendo anche un 50% di calo. Invece, altre pagine, che secondo me erano più "sospette" (articoli poco interessanti e per questo quasi per niente linkati esternamente) siano salite...:rollo: (alcune anche del 20% mediamente), ma poichè la maggior parte delle pagine è di buona qualità in generale sono sceso parecchio...
    😄

    Come dicono su WebmasterWorld: i tizi di Google hanno girato un interruttore e si sono allontanati...:fumato:

    L'unica idea che ho, attualmente, è che siamo all'inizio in Italia, forse ci saranno davvero degli "assestamenti".
    Tutto questo è interessante ma cozza con la frase di Matt Cutts che afferma che "pagine di bassa qualità possono abbassare il posizionamento dell'intero sito". Nel tuo caso, secondo quanto riportato, le pagine di bassa qualità rilevate (che han subìto un calo) sono la maggiorparte, e di conseguenza non si spiega l'incremento di alcune.

    Questo fa pensare che sia tutto ancora molto in alto mare.....


  • User Attivo

    Offro uno spunto ulteriore di discussione: altri siti duplicatori di contenuti come i comparatori di prezzi stanno sempre al loro posto.


  • User Attivo

    Un'altra frase su WebmasterWorld che condivido appieno:
    Gli ingegneri di Google sono persone intelligenti e sono sicuro che prima o poi capiranno che Panda è ben lungi dall'essere un miglioramento.

    Sempre un utente del forum ha partecipato al SES di New York del 21- 25 Marzo, dove uno dei relatori era un ingegnere di Google. L'utente del forum afferma (sua sensazione) che l'ingegnere fosse molto a disagio quando veniva menzionato l'aggiornamento Panda...
    :yuppi:

    D'altronde parliamoci chiaro; noi stessi, fra umani, potremmo avere opinioni diverse sulla qualità di una pagina, figuriamoci se lo può fare un algoritmo...


  • User Attivo

    @444523 said:

    D'altronde parliamoci chiaro; noi stessi, fra umani, potremmo avere opinioni diverse sulla qualità di una pagina, figuriamoci se lo può fare un algoritmo...
    Sono lontano dall'essere un sostenitore di Panda, però su quest'ultima tua affermazione non sono d'accordo.

    Google ha tutti gli strumenti (fin troppi a mio modo di vedere), per tracciare come un utente interagisce con un sito, e da lì capire molte cose. Se io entro nel primo risultato della ricerca, sto 15 secondi, e poi torno indietro ed apro il secondo, e rimango in quello 5 minuti, per di più navigando, quali dei due siti secondo te risponde a quello che io stavo ricercando? Ovviamente si può obiettare sul comportamento di un utente, ma coi grandi numeri, qualcosa potrà pur venir fuori per capire quali siti offrono qualcosa all'utente, e quali invece offrono solo una perdita di tempo.

    Non dico che Google dovrebbe basare tutto l'algoritmo sul comportamento dell'utente, ma penso converrai con me che la permanenza del sito, la ricerca del brand, la diffusione SOCIAL, potrebbero essere indicatori molto più forti rispetto ad un dominio assoluto dei backlinks, facilmente manipolabili.

    (Panda sarebbe dovuto essere questo, ma a quanto pare.....)


  • User Attivo

    @MrB said:

    Se io entro nel primo risultato della ricerca, sto 15 secondi, e poi torno indietro ed apro il secondo, e rimango in quello 5 minuti, per di più navigando, quali dei due siti secondo te risponde a quello che io stavo ricercando? Ovviamente si può obiettare sul comportamento di un utente, ma coi grandi numeri, qualcosa potrà pur venir fuori per capire quali siti offrono qualcosa all'utente, e quali invece offrono solo una perdita di tempo.

    Verissimo, ma sai bene che questa metodologia Google la applica già da tempo (l'introduzione del redirect dal motore di ricerca per "spiare" il comportamento dell'utente avviene da anni), questa volta, però, è intervenuto un nuovo algoritmo (secondo loro migliore perchè capace di selezionare la qualità) che "elabora", "seleziona" diversi dati... e per ora a me sembra li elabori davvero male.