- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Panda ubriaco?
-
Gli aggiornamenti di Google sono come i nuovi sitelink. Cambiano in continuazione. In pratica Google permette un turnover all'interno della serp. Per questo siamo qui a parlare di chi perde o di chi guadagna. Se vogliamo parlare di qualità di siti secondo me siamo sulla strada sbagliata. Io vedo su Google siti realizzati malissimo ma posizionati bene. Chissà quante visite tolgono a siti molto più blasonati. Voglio dare anch'io un contributo a questa community. Ho portato avanti un esperimento durato un anno circa per testare alcune tecniche SEO. Ho seguito tutte le combinazioni più importanti del sito e ho notato pochissimi cambiamenti di posizione nella serp. In compenso ho perso quasi il 70% delle visite. Questo calo è iniziato a Luglio e molto lentamente prosegue. Allora sono andato a fare la prova del 9 ad una mia teoria. Ho aperto i log dei siti dei miei clienti e ho notato la stessa cosa. Mi sono dato una risposta molto semplice che credo nessuno accetterà. Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network. Io stesso perdo molto meno tempo a cercare la news sul "terremoto" perchè mi viene passata direttamente da Twitter o Facebook. Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.
-
Ciao Formatoweb,
questo se fosse confermato sarebbe un grosso problema per molti webmaster.
Perché un conto è mettere un piccolo riassunto e un link al sito e un'altro mettere proprio il testo completo su Facebook.Se si fa informazione diretta e completa sui social, ci credo che poi i siti e blog perdono utenti!
Il Panda a questo punto non sarebbe più l'unica causa.
Poi stavo pensando ad una cosa, se le pagine sono quelle a cui si può accedere solo se si è amici, è possibile controllare con copyscape eventuali contenuti duplicati e prendere provvedimenti?
-
@formatoweb said:
Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network. Io stesso perdo molto meno tempo a cercare la news sul "terremoto" perchè mi viene passata direttamente da Twitter o Facebook. Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.
Credo che ci sia qualcosa di vero in quello che dici.
Google è continuata a crescere di traffico fino a quest'anno, è stata quasi raggiunta da facebook (120 contro 150 milioni di users giornalieri) ma comunque anche google è cresciuta. Che sia oramai al culmine non vi è dubbio, secondo me. Come qualità motore rimane comunque il meglio in circolazione, gli altri non sono nemmeno lontanamente paragonabili.
Bisogna vedere, però, se l'users futuro ha ancora voglia di cercare sul web oppure instrattenersi come con la tv. in questo ultimo caso allora i socials e i motori tipo yahoo-msn potrebbero avere la meglio, visto che offrono proprio l'intrattenimento come risorsa principale piuttosto che la ricerca.
I motori cinesi ne sono un esempio. Stanno avendo un successo mostruoso sull'idea di yahoo.
-
@Giorgiotave said:
Gli accessi unici di GT variano dal 65% al 70% del totale a secondo delle zone del sito.
Io ho sempre sostenuto che AdPlanner scazza.
Mai avuto problemi a mostrare i dati o dire se abbiamo problemi.Intanto grazie per la precisazione, che, grosso modo , sono in linea con l'esperienza dei miei siti : anche per me il totale degli accessi deve essere depurato di un buon 30/35 % circa per ottenere la curva degli unici.
Infatti per un paio di miei siti la curva degli accessi segna circa 12.000 ( analytics ) , quella degli unici circa 8.000 e AdPlanner parla per quei siti di circa 8000 unici ( ovviamente sempre al giorno ) , quuindi quasi perfettamente in linea.Ti avevo chiesto questo per disporre di dati omogenei e confrontabili , perchè AdPlanner ragiona ( o dovrebbe ragionare :?) per "unici" nel corso dell'intero giorno e avevo capito che quelle da te pubblicate erano curve relative al totale degli accessi , e non relativi agli unici.
Se AdPlanner "scazza" non sta a me dirlo perchè non sono affatto uno "specialista" , e quando non conosco qualcosa cerco, nei limiti del possibile, di non parlarne.
Tuttavia non capisco una cosa, e questo da sola varrebbe una discussione.
Credo di aver capito che AdPlanner venga consigliato soprattutto agli investitori pubblicitari che poi si riversano in AdWord ( ---> AdSense ) come "strumento" per la "valutazione" di un sito.
Bene ma se i dati fossero "farlocchi" , mi chiedo se Google ha per caso serie intenzioni di suicidio.Per esempio nel caso di Liquida ( ma di tante altre realtà ) c'è un forte crollo registrato : questi potrebbero avere qualcosa da ridire nei confronti dello stesso Google che in questo modo "declassarebbe" arbitrariamente quei siti.
Non credete?Un ultimissima cosa : nei giorni in cui Panda Update fu applicato alla serp anglosassone, leggevo di varie persone che sono intervenute parlando di questo o di quell'altro crollo.
Con quali dati si verificavano questi crolli?Mi spiego : ci sono altri strumenti , oltre AdPlanner, di monitoraggio di quei siti di cui si diceva essere crollati ?
Ci devono essere per forza altri strumenti con i quali venivano misurati, altrimenti, non capisco una cosa .
Se per misurare i "crolli anglosassoni" si è utilizzato come strumento AdPlanner, perchè questo non dovrebbe essere vero per l'Italia ?
Ma a questo punto sono sicuro che esisteranno altri strumenti che , dal basso della mia ignoranza,...ignoro appunto.
P.S. a margine di questa discussione ecco un dato davvero interessante : per i domini google sia com che it i dati su AdPlanner non sono disponbili...questa è buona davvero !
-
@formatoweb said:
Io vedo su Google siti realizzati malissimo ma posizionati bene. Chissà quante visite tolgono a siti molto più blasonati.
Voglio dare anch'io un contributo a questa community. Ho portato avanti un esperimento durato un anno circa per testare alcune tecniche SEO.
Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.
Siti fatti bene e quelli fatti male, a mio avviso , ci saranno sempre .
Non credo, salvo miglior parere, che Google sia in "crisi" o quasi : credo che ci sia un "tornado" di rinnovamento proprio in virtù del fatto che G. è e resta il miglior motore di ricerca e che bene o male il suo lavoro lo fa e anche discretamente bene.La tua esprienza è molto interessante e sarebbe bella approfondirla, sempre che tu sia disponibile.
Che i social network abbiano cambiato in qualche modo la "ragnatela delle informazioni" non vi è dubbio , ma che possano sostituire, anche alla lunga, un motore di ricerca mi sembra difficile.
E per una serie di fattori su cui non mi dilungo, ma che si possono intuire.
Ma mentre un social network fa parte dello schema della globalizzazione, quello dei motori fa parte della "pratica" di navigazione in internet.Ad esempio tra non molto i social network tipo facebook potrebbero accusare un grosso colpo : c'è un "facebook" nato da non molto che condivide con gli account il ricavo della pubblicità e questo, se Google ci mette le mani ( e sembra ne abbia l'intenzione ) potrebbe essere un macete per i "blasonati" social network.
Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
-
La definizione di visitatore unico su AdPlanner:[INDENT]Visitatori unici (utenti)
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
*[/INDENT]sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.
Cosa che a mio parere rende i due valori non comparabili, perchè un visitatore che torna sul sito tutti i giorni per un mese conta 1 per AdPlanner e conta 30 per Analytics.
A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
-
@gianrudi said:
La definizione di visitatore unico su AdPlanner:[INDENT]Visitatori unici (utenti)
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
*[/INDENT]sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.
A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.
Grazie.
Infatti sono andato a guardare più a fondo il sito.
In pratica il dato riportato sul grafico riguarda i "visitatori unici" (utenti) (** A ) nel mese, ossia, come recita la spiegazione, il "reale pubblico" che si può raggiungere effettivamente, mentre i "visitatori unici" ( cookie ) ( B** ) sono proprio gli accessi totali tenendo presente il giorno, poi è riportato il numero totale di visite ( C ) .
Mentre gli accessi totaliIn pratica la curva C è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni anche nel mese e quindi il "pubblico reale che si può raggiungere" .
Ora mi è tutto più chiaro.
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
-
@bluwebmaster said:
Grazie.
In pratica la curva B è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni non solo nello stesso giorno, ma anche nello stesso mese.Ad ogni modo AdPlanner con me dice la verità, il crollo c'è stato lo evidenzia benissimo... non credo sia una fonte di dati da buttare a mare. Forse da prendere con le pinze... ma non spara proprio dati a casaccio, o perlomeno non con tutti i siti.
-
Da una verifica accurata , sia sui siti che hanno fatto boom, sia su quelli "crollati" ( parlo dei miei , ovviamente ) i dati sono veritieri con piccolissimi margini di errore.
Per gli altri non so ma mi conforta la tua esperienza.
Ovviamente la curva espone solo il "pubblico reale" che si può raggiungere, cio , in pratica, salvo migliore spiegazione, il numero di italiani effettivi che ogni mese si collegano a un sito, dato chiaramente importante per l'investitore.
Perchè se un sito ha ad esempio una community o un forum o delle news questo ovviamente avrà un alto numero di ritorni anche nel mese.
Questo potrebbe servire anche per capire qualcosa di più di questo Panda.
Credo.
-
Io aggiungerei l'utilizzo dei filtri (io ad esempio lo uso molto) per cercare le notizie o qualcosa avvenuto in un determinato periodo.
Non credo che google abbia perso potere, solo che ha rallentato la sua crescita, poi ormai con il potenziamento di google maps e l'aggiunta di google plus un pò tutto è cambiato
-
@Lionard84 said:
Non credo che google abbia perso potere, solo che ha rallentato la sua crescita...
Sono d'accordo con te, nemmeno io credo che Google abbia perso potere e credo solo , come tu dici, che abbia rallentato un tantino la crescita ( che non equivale a dire che si sia "fermato" ) per "riorganizzarsi" e "migliorarsi".
-
Quì ci si sta allontanando dal motivo del post e cioè "è vero che dal 14/10 è successo qualcosa in SERP ?". Secondo me, ed anche secondo altri, si, considerando che tanti, in quel giorno, hanno avuto pesanti crolli. Saliscendi di chiavi sono visibili anche oggi (se avete chiavi da verificare). Quelle che sto controllando per me, stanno scendendo tutte di posizione; o si sta facendo una riconsiderazione dei siti, oppure il nuovo algoritmo ridefinisce continuamente la SERP, giorno dopo giorno, in base al numero di accessi unici alla pagina. Nel primo caso si dovrebbe capire cosa c' è di nuovo, nel secondo caso un incremento prestazionale ed un più frequente aggiornamento dei contenuti potrebbe fare la differenza.
-
Hai ragione. Il problema sai qual'è? E che si va a tentoni perchè nessuno sa ancora niente e nulla sembra determinato.
La questione sta anche nel fatto che i periodi di "sconvolgimento" sono stati, a mio avviso e salvo miglior parere, almeno 3 : il primo all'incirca verso aprile 2011 ( non tutti sono d'accordo , ma molti hanno notato delle considerevoli variazioni in serp "diverse" da quelle solite che si registrano periodicamente al cambio di qualche algoritmo ) , il secondo ad agosto , all'annuncio ufficiale dell'introduzione di Panda e il 14 ottobre , data in cui c'è stato un upgrade di Panda.
L'unica cosa che metto in realazione con il primo sconvolgimento di aprile è che ( guarda caso proprio in quel periodo AdPlanner mostra ...variazioni considerevoli di accesso ) è che la user experience abbia un peso maggiore e forse determinante nell'ambito della stessa chiave.
Altrimenti non si spiegherebbero "movimenti tellurici" registrati che hanno lanciato verso l'alto anche siti che, a dire di molti, non hanno poi questa grande qualità.
Questi sconvolgimenti riguardano sia siti che sono schizzati in alto in fatto di visite sia quelli collassati.
In ogni caso credo che tutto questo vada approfondito di più portando la propria esperienza e condividendola in vista di...capirci qualcosa e cercare di agire di conseguenza.
Ovviamente gli specialisti SEO sono i benvenuti.
-
@bluwebmaster said:
Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me. Quindi mi dirigo altrove per cercare visite e visibilità. Sai la prima cosa che mi chiedono i clienti? Voglio apparire su Facebook. Non dicono su Google, Yahoo o altro. Attenzione quando valutiamo un fenomeno come internet. Le cose cambiano nell'arco di pochissimo tempo. Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano. Scusate l'ot ma era per completare un discorso.
-
Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network.
Può anche darsi che ciò sia vero, ma ciascuno di noi, dicendo che sta perdendo visite (o guadagnando), penso che lo faccia analizzando gli accesi relativi ai motori di ricerca, perchè quì si parla di SERP e di movimenti sulla SERP, non di accessi dai siti referenti.
-
La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
-
@wolf_cub said:
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce.Hai perfettamente ragione, e ti quoto, ma bisogna tenere presente che il "segreto" non è casuale ( tanto ci sono i brevetti ) : a fronte, infatti, di tanti webmaster in buona fede che hanno come unico scopo quello di lavorare "onestamente" , ce ne sono tanti altri ( si spera pochi ) che sono pronti a sfruttare falle e ricorrere ai soliti trucchetti per procacciarsi visibilità.
Un esempio : i backlink , che evidenziavano , o potevano farlo, un "buon sito" , poi sono stati "abusati" con le link farm, la rincorsa ai siti "dofollow" ecc.
Risultato : Google, sembra e sottolineo sembra, ha declassato l'importanza dei backlink.Quindi non mi meraviglio affatto che possa esserci da parte del gigante dei motori di ricerca una certa "prudenza".
Le regole di qualità valgono sempre, quindi , è buona norma attenersi a queste.
-
@formatoweb said:
Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me.
Rispetto il tuo punto di vista , ma tu stesso dici : "sta funzionando male per me", sottointendendo che non è il motore a perdere colpi, ma il tuo sito a perdere colpi nel motore.
Ovviamente bisogna capire che i social network oggi rapresnetano una realtà che difficilmente si può ignorare : ma bisogna stare attenti alle mode e all'attrattiva che essi esercitano sui clienti e su molti webmaster.
Oggi non c'è discussione che non si regga sulla ricerca di come piacere a Google, perchè questi rappresenta ( e parlo per me, ovvio ) un buon 87 % del mio traffico.
Permettimi una nota : Facebook non nasce come motore di ricerca o "veicolo di visite" .
Che poi lo sia diventato o lo possa diventare è cosa possibile, ma altamente incerta.
Un esempio ? Su Google ci pensano i crawler a tirarti dentro le pagine, brutte, belle, buone o cattive che siano.
Su Facebook devi lavorare a "manina santa" e "sudare" la visibilità.Sembra un luogo comune ma non lo vuole essere : quando Facebook sarà in grado di darmi perlomeno la metà degli accessi che mi da Google, allora dirò che Facebook è una realtà.
Ma fino a quando questi, tranne gli sparuti "picchi" in alcune circostanze, mi regalerà si e no il 4 o 5 % degli accessi ...lo riterrò una fonte di "possibili" accessi come tanti altri ma non dell'importanza di un motore di ricerca.
-
@formatoweb said:
Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano.
Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.
Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
-
@wolf_cub said:
La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
Google è fin troppo chiaro. Devi produrre contenuti o servizi utili per l'utente. Gli algoritmi precisi attraverso cui Google determina se i tuoi contenuti/servizi sono utili per l'utente, e QUANTO sono utili per l'utente, possono variare significativamente anche più volte all'anno; quel che resta costante è il fine - per noi webmaster - di creare siti utili per l'utente e - per Google - di cercare di quantificare in modo algoritmico l'utilità di un sito.
Una volta si usava la keyword density.
Algoritmo -> una keyword density compresa tra "X"% e "Y'% è quella ottimale
Utente -> ??? che mi frega della keyword density ??? Io voglio solo che sul sito ci sia quel che cercoPoi si è usato la link popularity
Algoritmo -> Un sito che riceve molti link da altri siti è meglio degli altri
Utente -> ??? che mi frega di quanti link riceve dagli altri siti ??? Io voglio solo che sul sito ci sia quel che cercoPoi si sono usati (?) parametri comportamentali (Bounce rate, ecc.)
Algoritmo -> Un sito che ha un alto bounce rate è peggio degli altri
Utente -> ??? Manco so che è il bounce rate !!! Io voglio solo che sul sito ci sia quel che cercoIn definitiva, gli algoritmi cambiano ma gli utenti cercano sempre la stessa cosa: corrispondenza tra query di ricerca e contenuti/servizi del sito.
Il webmaster saggio cosa deve fare? Nel lungo periodo, riuscirà a posizionarsi meglio se insegue gli algoritmi dei motori di ricerca, o se capisce meglio le esigenze dell'utente? Se perdo il 50% di traffico a causa di un cambio di algoritmo, è meglio che dedico 3 mesi di studio a cercare di capire l'algoritmo e adeguarmi, o che dedico quel tempo a migliorare ulteriormente la qualità del mio sito?