- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Panda ubriaco?
-
La definizione di visitatore unico su AdPlanner:[INDENT]Visitatori unici (utenti)
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
*[/INDENT]sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.
Cosa che a mio parere rende i due valori non comparabili, perchè un visitatore che torna sul sito tutti i giorni per un mese conta 1 per AdPlanner e conta 30 per Analytics.
A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
-
@gianrudi said:
La definizione di visitatore unico su AdPlanner:[INDENT]Visitatori unici (utenti)
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
*[/INDENT]sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.
A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.
Grazie.
Infatti sono andato a guardare più a fondo il sito.
In pratica il dato riportato sul grafico riguarda i "visitatori unici" (utenti) (** A ) nel mese, ossia, come recita la spiegazione, il "reale pubblico" che si può raggiungere effettivamente, mentre i "visitatori unici" ( cookie ) ( B** ) sono proprio gli accessi totali tenendo presente il giorno, poi è riportato il numero totale di visite ( C ) .
Mentre gli accessi totaliIn pratica la curva C è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni anche nel mese e quindi il "pubblico reale che si può raggiungere" .
Ora mi è tutto più chiaro.
- Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
-
@bluwebmaster said:
Grazie.
In pratica la curva B è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni non solo nello stesso giorno, ma anche nello stesso mese.Ad ogni modo AdPlanner con me dice la verità, il crollo c'è stato lo evidenzia benissimo... non credo sia una fonte di dati da buttare a mare. Forse da prendere con le pinze... ma non spara proprio dati a casaccio, o perlomeno non con tutti i siti.
-
Da una verifica accurata , sia sui siti che hanno fatto boom, sia su quelli "crollati" ( parlo dei miei , ovviamente ) i dati sono veritieri con piccolissimi margini di errore.
Per gli altri non so ma mi conforta la tua esperienza.
Ovviamente la curva espone solo il "pubblico reale" che si può raggiungere, cio , in pratica, salvo migliore spiegazione, il numero di italiani effettivi che ogni mese si collegano a un sito, dato chiaramente importante per l'investitore.
Perchè se un sito ha ad esempio una community o un forum o delle news questo ovviamente avrà un alto numero di ritorni anche nel mese.
Questo potrebbe servire anche per capire qualcosa di più di questo Panda.
Credo.
-
Io aggiungerei l'utilizzo dei filtri (io ad esempio lo uso molto) per cercare le notizie o qualcosa avvenuto in un determinato periodo.
Non credo che google abbia perso potere, solo che ha rallentato la sua crescita, poi ormai con il potenziamento di google maps e l'aggiunta di google plus un pò tutto è cambiato
-
@Lionard84 said:
Non credo che google abbia perso potere, solo che ha rallentato la sua crescita...
Sono d'accordo con te, nemmeno io credo che Google abbia perso potere e credo solo , come tu dici, che abbia rallentato un tantino la crescita ( che non equivale a dire che si sia "fermato" ) per "riorganizzarsi" e "migliorarsi".
-
Quì ci si sta allontanando dal motivo del post e cioè "è vero che dal 14/10 è successo qualcosa in SERP ?". Secondo me, ed anche secondo altri, si, considerando che tanti, in quel giorno, hanno avuto pesanti crolli. Saliscendi di chiavi sono visibili anche oggi (se avete chiavi da verificare). Quelle che sto controllando per me, stanno scendendo tutte di posizione; o si sta facendo una riconsiderazione dei siti, oppure il nuovo algoritmo ridefinisce continuamente la SERP, giorno dopo giorno, in base al numero di accessi unici alla pagina. Nel primo caso si dovrebbe capire cosa c' è di nuovo, nel secondo caso un incremento prestazionale ed un più frequente aggiornamento dei contenuti potrebbe fare la differenza.
-
Hai ragione. Il problema sai qual'è? E che si va a tentoni perchè nessuno sa ancora niente e nulla sembra determinato.
La questione sta anche nel fatto che i periodi di "sconvolgimento" sono stati, a mio avviso e salvo miglior parere, almeno 3 : il primo all'incirca verso aprile 2011 ( non tutti sono d'accordo , ma molti hanno notato delle considerevoli variazioni in serp "diverse" da quelle solite che si registrano periodicamente al cambio di qualche algoritmo ) , il secondo ad agosto , all'annuncio ufficiale dell'introduzione di Panda e il 14 ottobre , data in cui c'è stato un upgrade di Panda.
L'unica cosa che metto in realazione con il primo sconvolgimento di aprile è che ( guarda caso proprio in quel periodo AdPlanner mostra ...variazioni considerevoli di accesso ) è che la user experience abbia un peso maggiore e forse determinante nell'ambito della stessa chiave.
Altrimenti non si spiegherebbero "movimenti tellurici" registrati che hanno lanciato verso l'alto anche siti che, a dire di molti, non hanno poi questa grande qualità.
Questi sconvolgimenti riguardano sia siti che sono schizzati in alto in fatto di visite sia quelli collassati.
In ogni caso credo che tutto questo vada approfondito di più portando la propria esperienza e condividendola in vista di...capirci qualcosa e cercare di agire di conseguenza.
Ovviamente gli specialisti SEO sono i benvenuti.
-
@bluwebmaster said:
Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me. Quindi mi dirigo altrove per cercare visite e visibilità. Sai la prima cosa che mi chiedono i clienti? Voglio apparire su Facebook. Non dicono su Google, Yahoo o altro. Attenzione quando valutiamo un fenomeno come internet. Le cose cambiano nell'arco di pochissimo tempo. Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano. Scusate l'ot ma era per completare un discorso.
-
Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network.
Può anche darsi che ciò sia vero, ma ciascuno di noi, dicendo che sta perdendo visite (o guadagnando), penso che lo faccia analizzando gli accesi relativi ai motori di ricerca, perchè quì si parla di SERP e di movimenti sulla SERP, non di accessi dai siti referenti.
-
La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
-
@wolf_cub said:
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce.Hai perfettamente ragione, e ti quoto, ma bisogna tenere presente che il "segreto" non è casuale ( tanto ci sono i brevetti ) : a fronte, infatti, di tanti webmaster in buona fede che hanno come unico scopo quello di lavorare "onestamente" , ce ne sono tanti altri ( si spera pochi ) che sono pronti a sfruttare falle e ricorrere ai soliti trucchetti per procacciarsi visibilità.
Un esempio : i backlink , che evidenziavano , o potevano farlo, un "buon sito" , poi sono stati "abusati" con le link farm, la rincorsa ai siti "dofollow" ecc.
Risultato : Google, sembra e sottolineo sembra, ha declassato l'importanza dei backlink.Quindi non mi meraviglio affatto che possa esserci da parte del gigante dei motori di ricerca una certa "prudenza".
Le regole di qualità valgono sempre, quindi , è buona norma attenersi a queste.
-
@formatoweb said:
Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me.
Rispetto il tuo punto di vista , ma tu stesso dici : "sta funzionando male per me", sottointendendo che non è il motore a perdere colpi, ma il tuo sito a perdere colpi nel motore.
Ovviamente bisogna capire che i social network oggi rapresnetano una realtà che difficilmente si può ignorare : ma bisogna stare attenti alle mode e all'attrattiva che essi esercitano sui clienti e su molti webmaster.
Oggi non c'è discussione che non si regga sulla ricerca di come piacere a Google, perchè questi rappresenta ( e parlo per me, ovvio ) un buon 87 % del mio traffico.
Permettimi una nota : Facebook non nasce come motore di ricerca o "veicolo di visite" .
Che poi lo sia diventato o lo possa diventare è cosa possibile, ma altamente incerta.
Un esempio ? Su Google ci pensano i crawler a tirarti dentro le pagine, brutte, belle, buone o cattive che siano.
Su Facebook devi lavorare a "manina santa" e "sudare" la visibilità.Sembra un luogo comune ma non lo vuole essere : quando Facebook sarà in grado di darmi perlomeno la metà degli accessi che mi da Google, allora dirò che Facebook è una realtà.
Ma fino a quando questi, tranne gli sparuti "picchi" in alcune circostanze, mi regalerà si e no il 4 o 5 % degli accessi ...lo riterrò una fonte di "possibili" accessi come tanti altri ma non dell'importanza di un motore di ricerca.
-
@formatoweb said:
Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano.
Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.
Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
-
@wolf_cub said:
La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
Google è fin troppo chiaro. Devi produrre contenuti o servizi utili per l'utente. Gli algoritmi precisi attraverso cui Google determina se i tuoi contenuti/servizi sono utili per l'utente, e QUANTO sono utili per l'utente, possono variare significativamente anche più volte all'anno; quel che resta costante è il fine - per noi webmaster - di creare siti utili per l'utente e - per Google - di cercare di quantificare in modo algoritmico l'utilità di un sito.
Una volta si usava la keyword density.
Algoritmo -> una keyword density compresa tra "X"% e "Y'% è quella ottimale
Utente -> ??? che mi frega della keyword density ??? Io voglio solo che sul sito ci sia quel che cercoPoi si è usato la link popularity
Algoritmo -> Un sito che riceve molti link da altri siti è meglio degli altri
Utente -> ??? che mi frega di quanti link riceve dagli altri siti ??? Io voglio solo che sul sito ci sia quel che cercoPoi si sono usati (?) parametri comportamentali (Bounce rate, ecc.)
Algoritmo -> Un sito che ha un alto bounce rate è peggio degli altri
Utente -> ??? Manco so che è il bounce rate !!! Io voglio solo che sul sito ci sia quel che cercoIn definitiva, gli algoritmi cambiano ma gli utenti cercano sempre la stessa cosa: corrispondenza tra query di ricerca e contenuti/servizi del sito.
Il webmaster saggio cosa deve fare? Nel lungo periodo, riuscirà a posizionarsi meglio se insegue gli algoritmi dei motori di ricerca, o se capisce meglio le esigenze dell'utente? Se perdo il 50% di traffico a causa di un cambio di algoritmo, è meglio che dedico 3 mesi di studio a cercare di capire l'algoritmo e adeguarmi, o che dedico quel tempo a migliorare ulteriormente la qualità del mio sito?
-
@macantoni: Mi spiace ma io noto una certa discrasia nel tuo ragionamento.
Se io (webmaster) sono convinto di avere creato contenuti di qualità nel rispetto delle linee guida e tu (Google) mi tagli il 40 % del traffico allora è come se tu mi facessi capire che i miei contenuti non sono poi così buoni. Ma se non sono così buoni dovresti farmelo capire in qualche modo. E' qui che deve stare la trasparenza.
Lo stesso discorso vale per le altre questioni sollevate. Hai dimenticato che tra il webmaster e l'utente c'è sempre il filtro di Google. Una certa keyword density non è da considerarsi ottimale in sè ma nella misura in cui fa si che i miei contenuti possano posizionarsi ed essere letti. Così almeno è stato fino ad ora. Che scrivo a fare se nessuno mi trova?
Lo stesso dicasi per la link popularity.
E' esattamente quello che dici tu :"corrispondenza tra query di ricerca e contenuti/servizi del sito".
E se il bounce rate non è un buon parametro a che santo dovrei aggrapparmi io, povero webmaster? Quindi, a mio avviso, è inutile perdersi nel cercare di "migliorare la qualità" se ti mancano i criteri per valutare come la qualità viene valutata. Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze? Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?
@Bluwebmaster: nel mio singolo caso non credo che il calo sia imputabile ai backlinks a meno che Google non abbia svalutato quella decina di directory a cui ho iscritto il sito. La cosa al momento più verosimile mi pare la questione dei singolari e plurali. Comunque qui si esce completamente da Panda, credo che si possa convenirne.
-
Dico la mia visto che anche con i miei 2 blog principali ho avuto problemi. Il primo blog (settore viaggi) ha avuto problemi a partire da Aprile circa... siamo passati da una media di 2000 unici al giorno con picchi di 3500 ad una media di circa 300 unici di settembre con cali che si sono accentuati ad agosto (la botta finale) e poi più limitata a Ottobre (tanto che c'era più da togliere?).
Il secondo blog andava benissimo fino al 13 Ottobre... fcendo una media di circa 2500-3000 unici al mese (parliamo di un settore molto competitivo... quello economico).
Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico.
Ovviamente parliamo di contenuti originali di buona qualità (articoli realizzati in maniera professionale con una lunghezza variabile dalle 250 parole per alcune (poche) news fino ai 500-600 parole delle guide. Questo solo per far capire che non parliamo di un blog fatto di articoletti di 100 parole scopiazzati qui e li.
In queste pagine ho letto davvero molte cose interessanti ma quello che penso e che non può essere una perdita di valore dei backlink... perchè se così fosse tolti quelli google dovrebbe valutare cosa?
Vi posso portare l'esempio di diverse serp dove in prima posizione per key molto remunerative ci sono siti MDA di scarsissimo valore fatti da testi scarni e assolutamente inutili all'utente e analizzando i link in entrata (colpo di scena) trovi solo qualche link da commenti, un po di link nei profili dei forum (magari pure in inglese) e al massimo qualche link su siti di article marketing.
Ma allora chi ha creato nel tempo, con costanza una serie di ottimi link in entrata, a tema con il tuo settore, producendo contenuti di qualità che deve fare? Non è questo che vuole google?
Non voglio dire che Big G sia in crisi, ma di sicuro che ci siano delle serp inguardabili questo si. E lo posso dire con certezza perchè io stesso ho fatto qualche test (che volendo può fare chiunque) facendo arrivare in prima pagina siti inguardabili (spesso una paginetta o poco più) senza nessuno sforzo.
Insomma chi vogliamo prendere in giro... ci vorrebbero regole precise e controlli sulla qualità severi. Perchè se perdo 10 posizioni a danno di un mio concorrente ben venga, ma se mi metti dietro ad un sitarello di 3 pagine con un testo di poche decine di parole e 3 blocchi adsense... ma chi vogliamo prendere in giro?!
-
Mettiamo che ci sono 100 siti identici (il mio caso), l'unica differenza è il nome del dominio, perchè tutte le mie pagine sono scese mentre quelle di un mio competitor sono rimaste li ? L'unica conclusione che ho potuto trarre è che ho subito una penalizzazione sui backlinks....però sembrano penalizzate in maniera differente le anchors...se per una anchor google ritiene che non è cresciuta in maniera naturale, ti porta indietro nelle serp.
Oggi per esempio sono finito tra i primi 100 risultati per una anchor competitiva, cosa che non mi era mai successa...e credo di non averla spinta tanto, a parte qualche anchor qua e là.
Il problema adesso è come recuperare quelle coppie di chiavi affossate da google.
-
@wolf_cub said:
Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze?
Certamente che devi farlo, ogni giorno. Non un sondaggio nel senso di fargli riempire il questionario, ma nel senso di studiarne il comportamento. Le statistiche di Analytics ed anche altri strumenti che se sai programmare puoi farti da solo, possono aiutarti a capire se l'utente arriva sul tuo sito e riesce a trovare quel che cerca oppure no.
Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?
No, ma sei certo di fare qualcosa che Google ha interesse a mettere in evidenza, perché è interesse di Google mostare agli utenti dei risultati che soddisfano quel che cercano. Gli utenti, continuerebbero ad usare Google, se i suoi algoritmi non fossero ottimizzati per piacere all'utente?
-
Dopo avere visto una crescita continua (dovuta credo alla giovinezza del sito) negli ultimi 10 giorni sono stato decisamente penalizzato anche io nel sito in firma (più o meno un 25% di unici in meno) ... ma sinceramente non so quanto sia Panda e quanto altri fattori ... forse i più esperti hanno idee più precise al riguardo ... certo fa rabbia