• Super User

    Ciao Dott Zimmermann e benvenuto nel forum GT 😉

    Nella sezione in cui hai postato ci occupiamo di dare opinioni, consigli e suggerimenti precisi a seconda delle richieste dell'utente, quindi sposto il tuo post nell'area dedicata agli strumenti di statistiche 🙂


  • User Attivo

    Domanda 1: dipende dal software che impieghi, dal fatto che sia basato sui log o su javascript e dal fatto che abbia il database degli spider aggiornato (quasi mai, i servizi free).

    Domanda 2: potrebbe riconoscerti come proprietario tramite un Coockie (conosco vari software che lo fanno) e non indicarti perché ritiene che sia inutile indicare te stesso, dato che molti andrebbero in confusione.

    Domanda 3: il robots non serve per tenere pulite le statistiche. Questo si fa tenendo aggiornati i programmi di statistica. Se blocchi la strada agli spider, poi ovviamente non ti aspettare d'essere presente tra i risultati sui motori 🙂


  • User Attivo

    @Dott Zimmermann said:

    Ciao a tutti,

    primo post che faccio e probabilmente sono nella sezione errata ed è stato già chiesto... ma portate pazienza se potete!

    Gestisco un blog assieme ad un mio socio, sono un autore disegnatore di fumetti e da alcuni mesi siamo online con una striscia al giorno su un server ARUBA.

    http://www.ettorebaldo.com/

    Da questa settimana abbiamo attivato il servizio di statistiche e una valanga di dati si sono spianati ai nostri occhi.

    Domanda 1: Le visite giornaliere che le statistiche forniscono sono pulite da tutti i vari bots che girano su internet, se cosi non è come si fa ad avere un dato relativo solo ad accessi "veri"?

    Esistono dei filtri, ma come detto da fradefra dipende dal servizio che usi.

    Domanda 2: C'è una sezione "live" con la voce Who's on... quando sono collegato al sito il mio IP non figura mai tra quelli segnati, perchè?

    Anche qui quoto fradefra, per non falsare le statistiche spesso si usano cookies che impediscono al tool di conteggiarti.

    Domanda 3: ho sentito parlare del file robots.txt per inpedire ai spider di accedere e falsare le statistiche, questo significa però esser evitati dai motori di ricerca?

    Il file robots agisce sui bot e sugli spider, se gli impedisci il passaggio (specie a quelli buoni) rischi di sminuire la presenza nei motori di ricerca.
    Perchè perdere il traffico dai motori di ricerca per avere dei dati puliti all'origine, quando con i tool di statistica puoi permetterti di isolare i dati che ti interessano?

    Di domande ne ho ancora.. ma per ora mi fermo qua... che se no mi si banna subito 😄

    Grazie
    HZ

    Figurati, chiedi pure! :ciauz:

    Andrea


  • User

    Grazie ragazzi,

    le vostre risposte sono davvero molto utili.
    Ma ... io che PAGO un servizio dato da aruba di statistiche con una bellissima interfaccia grafica ad istogrammi e una menata di robe che non so cosa siano, se desiderassi solo sapere quante persone fisiche accedono al mio sito posso farlo e se si come?

    Per quello che riguarda il robots.txt, per me è molto importante esser indicizzato nei motori, quindi benvengano tutti i bot di sto mondo, mi piacerebbe solo poterli identificare e sottrarre al conteggio.

    HZ


  • User Attivo

    @Dott Zimmermann said:

    Grazie ragazzi,

    le vostre risposte sono davvero molto utili.
    Ma ... io che PAGO un servizio dato da aruba di statistiche con una bellissima interfaccia grafica ad istogrammi e una menata di robe che non so cosa siano, se desiderassi solo sapere quante persone fisiche accedono al mio sito posso farlo e se si come?

    Per quello che riguarda il robots.txt, per me è molto importante esser indicizzato nei motori, quindi benvengano tutti i bot di sto mondo, mi piacerebbe solo poterli identificare e sottrarre al conteggio.

    HZ

    Quante persone fisiche accedono al sito (visitatori unici) si può ricavare, in qualche modo, ma non è mai un dato certo, anche se nei grandissimi numeri si ritiene ragionevolmente indicativo, se il sistema di statistica incrocia i log con un sistema di rilevazione basato sui coockie.

    Per quanto riguarda gli spider, i migliori sistemi li filtrano, dato che hanno un database con gli identificatori degli stessi. Il problema è se poi questi database sono aggiornati.


  • User

    Scendo terra terra...
    per esempio alle 15:18 di oggi mi dice:

    During the Day of September 5th, 2007:

    • A total of 123 distinct visits were made to the site.
    • The average visit lasted 3 Minutes and 38 Seconds.
    • 19 distinct web pages were viewed a total of 283 times.
    • The average visit contained 2,30 page views. People spent an average of 1 Minute and 35 Seconds viewing a page.
    • Downloadable files were requested 0 times. On average 0,00 files were downloaded per visit.
      Ora, io avrò fatto una decina di accessi per rispondere a commenti, beh se in mezza giornata ci fossero stati un 100 visitatori andrebbe anche bene come inizio.
      Ma tutti i dati soprariportati secondo voi sono attendibili o inquinati da spider, crawlers, elfi e nani?

  • User

    ops, chiedo scusa ho incollato la colonna del 5 settembre!

    sono fortissimo... cmq la domanda rimane valida


  • User Attivo

    @Dott Zimmermann said:

    Scendo terra terra...
    per esempio alle 15:18 di oggi mi dice:

    During the Day of September 5th, 2007:

    • A total of 123 distinct visits were made to the site.
    • The average visit lasted 3 Minutes and 38 Seconds.
    • 19 distinct web pages were viewed a total of 283 times.
    • The average visit contained 2,30 page views. People spent an average of 1 Minute and 35 Seconds viewing a page.
    • Downloadable files were requested 0 times. On average 0,00 files were downloaded per visit.Ora, io avrò fatto una decina di accessi per rispondere a commenti, beh se in mezza giornata ci fossero stati un 100 visitatori andrebbe anche bene come inizio.
      Ma tutti i dati soprariportati secondo voi sono attendibili o inquinati da spider, crawlers, elfi e nani?

    Come possiamo dirtelo senza conoscere il sistema che usi, senza sapere se è aggiornato, senza sapere quando è stato aggiornato l'ultima volta?
    Non è per essere reticenti, ma l'unico che può dirtelo è il tuo hoster (o chi ti cura il sito ed il server), se mastica la materia.


  • User

    azz..

    il sito lo curo io, sono ospitato su un server aruba e il programma di stat si chiama livestats.xsp e qui mi fermo in quanto la mia domanda era tesa a vedere di capire come leggere meglio i dati che mi vengono forniti.

    Mi scuso se in effetti sono stato un pò ridondante nella richiesta ma dal mio punto di vista se si paga un servizio per avere un monitoraggio del proprio sito dovrebbe esser scontato che dei vari bots e kots non me ne pò fregà de meno.

    Grazie cmq per la pazienza! :bho:


  • User Attivo

    @Dott Zimmermann said:

    azz..

    il sito lo curo io, sono ospitato su un server aruba e il programma di stat si chiama livestats.xsp e qui mi fermo in quanto la mia domanda era tesa a vedere di capire come leggere meglio i dati che mi vengono forniti.

    Mi scuso se in effetti sono stato un pò ridondante nella richiesta ma dal mio punto di vista se si paga un servizio per avere un monitoraggio del proprio sito dovrebbe esser scontato che dei vari bots e kots non me ne pò fregà de meno.

    Grazie cmq per la pazienza! :bho:

    Ecco perfetto 🙂

    Io non uso livestats, vediamo se qualcuno lo usa e può risponderti.