• User

    @bluwebmaster said:

    Vedo qualche "millimetro" oltre la tacchetta riferita ad agosto.

    Mi dispiace ma, come immaginavo quando ho chiesto lumi alcuni giorni fa, non sai leggere il grafico di Adplanner.
    Per giorgiotave.it il grafico fornisce i dati fino a luglio compreso.
    Se qui ognuno si inventa dati a caso diventa difficile fare ragionamenti attendibili.


  • Super User

    @bluemountains said:

    Mi dispiace ma, come immaginavo quando ho chiesto lumi alcuni giorni fa, non sai leggere il grafico di Adplanner.
    Per giorgiotave.it il grafico fornisce i dati fino a luglio compreso.

    Qui nessuno si inventa niente , sia ben chiaro.
    Ho detto nessuno, perchè io non ho parlato di differenze tra fine luglio e agosto, ma ho riscontrato quello che è sotto gli occhi di tutti, i dati di aprile con quelli, vogliamo dire fine luglio ? E diciamolo.

    Ma la realtà non la si può cambiare .
    Vogliamo dire che AdPlanner ha cambiato "metrica" per gli accessi unici?
    Diciamocelo pure, però poi qualcuno mi dovrebbe spiegare come mai , se vado su adplanner, alcuni miei siti "picchiano" di brutto da aprile 2011 , altri , nello stesso periodo volano verso l'alto.

    E se di questi siti prendo la curva di Analytics , ma quella dei visitatori unici, non quella degli accessi ( che contiene tutte gli accessi, compresi quelli che ritornano ) e la confronto con quella di AdPlanner i dati quasi coincidono e le differenze sono davvero minime.

    Allora per farla breve : AdPlanner ci azzecca solo con me?

    Rispondete per favore.

    Non trattandosi solo del dominio che ci ospita ( giorgiotave ) , ma di tantissimi altri , ho impressione che qualcuno si sia risentito pensando a una contestazione.

    Se gli unici di questi altri siti non coincidono con gli unici registrati da AdPlanner sono felice per loro , significa che sono l'unico sfigato con cui ci ha azzeccato.


  • Community Manager

    @bluwebmaster said:

    Giorgio, scusami , le curve che hai pubblicato sono quegli degli accessi generali che si evince subito dalla dashboard , o quella degli unici?

    Gli accessi unici di GT variano dal 65% al 70% del totale a secondo delle zone del sito.

    Ma non abbiamo subito cali in questi anni, nè per gli accessi unici, nè per gli accessi provenienti da Google.

    Giorgiotave.it in questi ultimi anni ha avuto una stabilità in tutti i vari dati. Le uniche viarianti, ma di poco conto, sono un pò di accessi dai Social...però ci sono diminuite le visite dai motori più piccolini.

    Io ho sempre sostenuto che AdPlanner scazza. Infatti come ci segna meno unici, ci segna 3.5 milioni di pagine viste. Noi arriviamo, quando va bene e con tutto il Network a 2.

    Il tempo sul sito ad esempio, è di 5 minuti. Ma da noi le persone ci stanno circa 2. Anzi, se prendo alcuni dati relativi a tutto Giorgiotave.it ci stanno poco più di un minuto.

    AdPlanner e anche Google Trends for website, ci segnalava periodi (attenzione non giorni che ci sono stati) con 32-33k al giorno di unici. Che significa 45.000 visite. Cose che mai abbiamo fatto.

    C'è stato solo un periodo in cui i dati coincidevano per noi: quando hanno lanciato i servizi...i primi mesi coincidevano fedelmente. Poi io mi ricordo varie polemiche e cominciarono a variare.

    Tra le altre cose noi abbiamo rilasciato sempre i nostri dati qui sul forum 🙂

    E, se vogliamo proprio dirla tutta, mi è successo più volte di segnalare quando abbiamo avuto problemi con i motori di ricerca, una volta con una case history sul BadRank con un altro dominio, l'altra volta è una case history di cui ho scritto ma ora non ricordo in quale sezione...quanto tutto il forum gt fu deindicizzato da Google per un errore della Sitemap (colpa di Google) e noi per un mese perdemmo parecchio traffico, da Google verso il forum perdemmo il 99%, ma nonostante questo l'attività del forum perse solo un 30% 🙂

    Mai avuto problemi a mostrare i dati o dire se abbiamo problemi (altra case history quella del PR abbassato per vendita di link, ingiustamente)

    :ciauz:


  • User

    Gli aggiornamenti di Google sono come i nuovi sitelink. Cambiano in continuazione. In pratica Google permette un turnover all'interno della serp. Per questo siamo qui a parlare di chi perde o di chi guadagna. Se vogliamo parlare di qualità di siti secondo me siamo sulla strada sbagliata. Io vedo su Google siti realizzati malissimo ma posizionati bene. Chissà quante visite tolgono a siti molto più blasonati. Voglio dare anch'io un contributo a questa community. Ho portato avanti un esperimento durato un anno circa per testare alcune tecniche SEO. Ho seguito tutte le combinazioni più importanti del sito e ho notato pochissimi cambiamenti di posizione nella serp. In compenso ho perso quasi il 70% delle visite. Questo calo è iniziato a Luglio e molto lentamente prosegue. Allora sono andato a fare la prova del 9 ad una mia teoria. Ho aperto i log dei siti dei miei clienti e ho notato la stessa cosa. Mi sono dato una risposta molto semplice che credo nessuno accetterà. Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network. Io stesso perdo molto meno tempo a cercare la news sul "terremoto" perchè mi viene passata direttamente da Twitter o Facebook. Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.


  • Super User

    Ciao Formatoweb,

    questo se fosse confermato sarebbe un grosso problema per molti webmaster.
    Perché un conto è mettere un piccolo riassunto e un link al sito e un'altro mettere proprio il testo completo su Facebook.

    Se si fa informazione diretta e completa sui social, ci credo che poi i siti e blog perdono utenti!

    Il Panda a questo punto non sarebbe più l'unica causa.

    Poi stavo pensando ad una cosa, se le pagine sono quelle a cui si può accedere solo se si è amici, è possibile controllare con copyscape eventuali contenuti duplicati e prendere provvedimenti?


  • User

    @formatoweb said:

    Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network. Io stesso perdo molto meno tempo a cercare la news sul "terremoto" perchè mi viene passata direttamente da Twitter o Facebook. Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.

    Credo che ci sia qualcosa di vero in quello che dici.

    Google è continuata a crescere di traffico fino a quest'anno, è stata quasi raggiunta da facebook (120 contro 150 milioni di users giornalieri) ma comunque anche google è cresciuta. Che sia oramai al culmine non vi è dubbio, secondo me. Come qualità motore rimane comunque il meglio in circolazione, gli altri non sono nemmeno lontanamente paragonabili.

    Bisogna vedere, però, se l'users futuro ha ancora voglia di cercare sul web oppure instrattenersi come con la tv. in questo ultimo caso allora i socials e i motori tipo yahoo-msn potrebbero avere la meglio, visto che offrono proprio l'intrattenimento come risorsa principale piuttosto che la ricerca.
    I motori cinesi ne sono un esempio. Stanno avendo un successo mostruoso sull'idea di yahoo.


  • Super User

    @Giorgiotave said:

    Gli accessi unici di GT variano dal 65% al 70% del totale a secondo delle zone del sito.
    Io ho sempre sostenuto che AdPlanner scazza.
    Mai avuto problemi a mostrare i dati o dire se abbiamo problemi.

    Intanto grazie per la precisazione, che, grosso modo , sono in linea con l'esperienza dei miei siti : anche per me il totale degli accessi deve essere depurato di un buon 30/35 % circa per ottenere la curva degli unici.
    Infatti per un paio di miei siti la curva degli accessi segna circa 12.000 ( analytics ) , quella degli unici circa 8.000 e AdPlanner parla per quei siti di circa 8000 unici ( ovviamente sempre al giorno ) , quuindi quasi perfettamente in linea.

    Ti avevo chiesto questo per disporre di dati omogenei e confrontabili , perchè AdPlanner ragiona ( o dovrebbe ragionare :?) per "unici" nel corso dell'intero giorno e avevo capito che quelle da te pubblicate erano curve relative al totale degli accessi , e non relativi agli unici.

    Se AdPlanner "scazza" non sta a me dirlo perchè non sono affatto uno "specialista" , e quando non conosco qualcosa cerco, nei limiti del possibile, di non parlarne.

    Tuttavia non capisco una cosa, e questo da sola varrebbe una discussione.
    Credo di aver capito che AdPlanner venga consigliato soprattutto agli investitori pubblicitari che poi si riversano in AdWord ( ---> AdSense ) come "strumento" per la "valutazione" di un sito.
    Bene ma se i dati fossero "farlocchi" , mi chiedo se Google ha per caso serie intenzioni di suicidio.

    Per esempio nel caso di Liquida ( ma di tante altre realtà ) c'è un forte crollo registrato : questi potrebbero avere qualcosa da ridire nei confronti dello stesso Google che in questo modo "declassarebbe" arbitrariamente quei siti.
    Non credete?

    Un ultimissima cosa : nei giorni in cui Panda Update fu applicato alla serp anglosassone, leggevo di varie persone che sono intervenute parlando di questo o di quell'altro crollo.
    Con quali dati si verificavano questi crolli?

    Mi spiego : ci sono altri strumenti , oltre AdPlanner, di monitoraggio di quei siti di cui si diceva essere crollati ?

    Ci devono essere per forza altri strumenti con i quali venivano misurati, altrimenti, non capisco una cosa .

    Se per misurare i "crolli anglosassoni" si è utilizzato come strumento AdPlanner, perchè questo non dovrebbe essere vero per l'Italia ?

    Ma a questo punto sono sicuro che esisteranno altri strumenti che , dal basso della mia ignoranza,...ignoro appunto.

    P.S. a margine di questa discussione ecco un dato davvero interessante : per i domini google sia com che it i dati su AdPlanner non sono disponbili...questa è buona davvero !


  • Super User

    @formatoweb said:

    Io vedo su Google siti realizzati malissimo ma posizionati bene. Chissà quante visite tolgono a siti molto più blasonati.

    Voglio dare anch'io un contributo a questa community. Ho portato avanti un esperimento durato un anno circa per testare alcune tecniche SEO.

    Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.

    Siti fatti bene e quelli fatti male, a mio avviso , ci saranno sempre .
    Non credo, salvo miglior parere, che Google sia in "crisi" o quasi : credo che ci sia un "tornado" di rinnovamento proprio in virtù del fatto che G. è e resta il miglior motore di ricerca e che bene o male il suo lavoro lo fa e anche discretamente bene.

    La tua esprienza è molto interessante e sarebbe bella approfondirla, sempre che tu sia disponibile.

    Che i social network abbiano cambiato in qualche modo la "ragnatela delle informazioni" non vi è dubbio , ma che possano sostituire, anche alla lunga, un motore di ricerca mi sembra difficile.
    E per una serie di fattori su cui non mi dilungo, ma che si possono intuire.
    Ma mentre un social network fa parte dello schema della globalizzazione, quello dei motori fa parte della "pratica" di navigazione in internet.

    Ad esempio tra non molto i social network tipo facebook potrebbero accusare un grosso colpo : c'è un "facebook" nato da non molto che condivide con gli account il ricavo della pubblicità e questo, se Google ci mette le mani ( e sembra ne abbia l'intenzione ) potrebbe essere un macete per i "blasonati" social network.

    Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.


  • Moderatore

    La definizione di visitatore unico su AdPlanner:[INDENT]Visitatori unici (utenti)

    • Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
      *[/INDENT]sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.

    Cosa che a mio parere rende i due valori non comparabili, perchè un visitatore che torna sul sito tutti i giorni per un mese conta 1 per AdPlanner e conta 30 per Analytics.

    A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.


  • Super User

    @gianrudi said:

    La definizione di visitatore unico su AdPlanner:[INDENT]Visitatori unici (utenti)

    • Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
      *[/INDENT]sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.

    A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.

    Grazie.
    Infatti sono andato a guardare più a fondo il sito.
    In pratica il dato riportato sul grafico riguarda i "visitatori unici" (utenti) (** A ) nel mese, ossia, come recita la spiegazione, il "reale pubblico" che si può raggiungere effettivamente, mentre i "visitatori unici" ( cookie ) ( B** ) sono proprio gli accessi totali tenendo presente il giorno, poi è riportato il numero totale di visite ( C ) .
    Mentre gli accessi totali

    In pratica la curva C è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni anche nel mese e quindi il "pubblico reale che si può raggiungere" .

    Ora mi è tutto più chiaro.


  • User Attivo

    @bluwebmaster said:

    Grazie.
    In pratica la curva B è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni non solo nello stesso giorno, ma anche nello stesso mese.

    Ad ogni modo AdPlanner con me dice la verità, il crollo c'è stato lo evidenzia benissimo... non credo sia una fonte di dati da buttare a mare. Forse da prendere con le pinze... ma non spara proprio dati a casaccio, o perlomeno non con tutti i siti.


  • Super User

    Da una verifica accurata , sia sui siti che hanno fatto boom, sia su quelli "crollati" ( parlo dei miei , ovviamente ) i dati sono veritieri con piccolissimi margini di errore.

    Per gli altri non so ma mi conforta la tua esperienza.

    Ovviamente la curva espone solo il "pubblico reale" che si può raggiungere, cio , in pratica, salvo migliore spiegazione, il numero di italiani effettivi che ogni mese si collegano a un sito, dato chiaramente importante per l'investitore.

    Perchè se un sito ha ad esempio una community o un forum o delle news questo ovviamente avrà un alto numero di ritorni anche nel mese.

    Questo potrebbe servire anche per capire qualcosa di più di questo Panda.
    Credo.


  • User Attivo

    Io aggiungerei l'utilizzo dei filtri (io ad esempio lo uso molto) per cercare le notizie o qualcosa avvenuto in un determinato periodo.
    Non credo che google abbia perso potere, solo che ha rallentato la sua crescita, poi ormai con il potenziamento di google maps e l'aggiunta di google plus un pò tutto è cambiato


  • Super User

    @Lionard84 said:

    Non credo che google abbia perso potere, solo che ha rallentato la sua crescita...

    Sono d'accordo con te, nemmeno io credo che Google abbia perso potere e credo solo , come tu dici, che abbia rallentato un tantino la crescita ( che non equivale a dire che si sia "fermato" ) per "riorganizzarsi" e "migliorarsi".


  • User

    Quì ci si sta allontanando dal motivo del post e cioè "è vero che dal 14/10 è successo qualcosa in SERP ?". Secondo me, ed anche secondo altri, si, considerando che tanti, in quel giorno, hanno avuto pesanti crolli. Saliscendi di chiavi sono visibili anche oggi (se avete chiavi da verificare). Quelle che sto controllando per me, stanno scendendo tutte di posizione; o si sta facendo una riconsiderazione dei siti, oppure il nuovo algoritmo ridefinisce continuamente la SERP, giorno dopo giorno, in base al numero di accessi unici alla pagina. Nel primo caso si dovrebbe capire cosa c' è di nuovo, nel secondo caso un incremento prestazionale ed un più frequente aggiornamento dei contenuti potrebbe fare la differenza.


  • Super User

    Hai ragione. Il problema sai qual'è? E che si va a tentoni perchè nessuno sa ancora niente e nulla sembra determinato.

    La questione sta anche nel fatto che i periodi di "sconvolgimento" sono stati, a mio avviso e salvo miglior parere, almeno 3 : il primo all'incirca verso aprile 2011 ( non tutti sono d'accordo , ma molti hanno notato delle considerevoli variazioni in serp "diverse" da quelle solite che si registrano periodicamente al cambio di qualche algoritmo ) , il secondo ad agosto , all'annuncio ufficiale dell'introduzione di Panda e il 14 ottobre , data in cui c'è stato un upgrade di Panda.

    L'unica cosa che metto in realazione con il primo sconvolgimento di aprile è che ( guarda caso proprio in quel periodo AdPlanner mostra ...variazioni considerevoli di accesso ) è che la user experience abbia un peso maggiore e forse determinante nell'ambito della stessa chiave.

    Altrimenti non si spiegherebbero "movimenti tellurici" registrati che hanno lanciato verso l'alto anche siti che, a dire di molti, non hanno poi questa grande qualità.

    Questi sconvolgimenti riguardano sia siti che sono schizzati in alto in fatto di visite sia quelli collassati.

    In ogni caso credo che tutto questo vada approfondito di più portando la propria esperienza e condividendola in vista di...capirci qualcosa e cercare di agire di conseguenza.

    Ovviamente gli specialisti SEO sono i benvenuti.


  • User

    @bluwebmaster said:

    Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
    Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me. Quindi mi dirigo altrove per cercare visite e visibilità. Sai la prima cosa che mi chiedono i clienti? Voglio apparire su Facebook. Non dicono su Google, Yahoo o altro. Attenzione quando valutiamo un fenomeno come internet. Le cose cambiano nell'arco di pochissimo tempo. Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano. Scusate l'ot ma era per completare un discorso.


  • User

    @formatoweb

    Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network.
    Può anche darsi che ciò sia vero, ma ciascuno di noi, dicendo che sta perdendo visite (o guadagnando), penso che lo faccia analizzando gli accesi relativi ai motori di ricerca, perchè quì si parla di SERP e di movimenti sulla SERP, non di accessi dai siti referenti.


  • User Attivo

    La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.

    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.


  • Super User

    @wolf_cub said:

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità
    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce.

    Hai perfettamente ragione, e ti quoto, ma bisogna tenere presente che il "segreto" non è casuale ( tanto ci sono i brevetti ) : a fronte, infatti, di tanti webmaster in buona fede che hanno come unico scopo quello di lavorare "onestamente" , ce ne sono tanti altri ( si spera pochi ) che sono pronti a sfruttare falle e ricorrere ai soliti trucchetti per procacciarsi visibilità.

    Un esempio : i backlink , che evidenziavano , o potevano farlo, un "buon sito" , poi sono stati "abusati" con le link farm, la rincorsa ai siti "dofollow" ecc.
    Risultato : Google, sembra e sottolineo sembra, ha declassato l'importanza dei backlink.

    Quindi non mi meraviglio affatto che possa esserci da parte del gigante dei motori di ricerca una certa "prudenza".
    Le regole di qualità valgono sempre, quindi , è buona norma attenersi a queste.