• Super User

    Analizziamo il rapporto posizione - accessi

    E' una domanda che ricorre spesso, ma che non ha mai una risposta esauriente: qual'è il rapporto che lega posizione e accessi in una serp?

    Tecnicamente il rapporto per un numero di accessi tendente all'infinito dovrebbe essere uguale per tutte le serp, perchè non dipende dalla parola cercata ma dall'utente (che può decidere se fermarsi al primo risultato, al secondo, se vedere la prima pagina, se vedere anche la seconda..eccetera)

    Ciò che attrae l'utente è dunque il posizionamento e l'abilità nel trovare un title e una description accattivanti.

    Possiamo però affermare che in genere l'utente guarda principalmente alla posizione, perchè un sito con un title accattivante se non ha una buona posizione attrae poco.

    Come facciamo ad analizzare il rapporto posizione accessi?

    Per prima cosa ci servono un numero considerevole di dati relativi alla posizione di un sito per una determinata key e al numero di accessi che quella key porta al sito in x giorni (ovviamente in questi x giorni la posizione non deve variare). Questi dati possiamo reperirli in 3 modi:

    1. Posso creare uno script che ognuno potrà implementare nel suo sito e che ha il compito di inviare ad un database i dati di cui ho parlato prima.

    2. Se non faccio lo script invece ognuno di voi potrebbe fornirci giornalmente per un certo periodo i dati relativi alla posizione di una key e al numero di accessi che quella key ha portato in un giorno

    3. Dato che alcuni siti mostrano le loro statistiche si potrebbero analizzare pure quelle

    Dopo di che si passa all'analisi. L'analisi risulterebbe tanto migliore quanti più dati di una serp si avranno (x esempio se abbiamo dati relativi agli accessi giornalieri per le prime 10 posizioni della serp "gratis" sarebbe perfetto). In ogni caso una volta raggiunti un certo numero di dati si troverà il modo migliore per analizzarli 🙂

    Che ne dite?
    Prima parliamone e organizziamoci in modo perfetto e poi si può partire.

    Il risultato finale che spero di ottenere è una formula a 3 variabili:

    variabile 1: posizionamento conosciuto per una data key

    variabile 2: numero accessi in x giorni tramite la key

    variabile 3: posizione n

    la formula f(variabile 1, variabile 2, variabile 3) dovrebbe fornire il numero di accessi in x giorni ottenuti dal sito che si trova alla posizione n (ovvero variabile 3)

    Spero di essere stato chiaro e proporrei la creazione del tool di cui vi parlavo, per rendere i dati più puliti. Penso che comunque il progetto per quanto difficile, possa essere davvero interessante.

    Ovviamente i dati forniti dalla formula finale saranno sempre approssimativi, ma comunque utili per scoprire l'importanza di una serp (conoscendo il numero di accessi alla posizione n)

    Che ne dite? Lo facciamo?


  • Community Manager

    Interessantissimo test 😮

    Io propongo di buttarci su una chiave facile all'inizio e occupare le prime 10 posizioni e poi incrociare tutto.

    Che ne dite?


  • Super User

    dunque..il problema è questo:

    per avere dati puliti abbiamo bisogno di key con molti accessi giornalieri..oppure key con poki accessi giornalieri (minimo 20) ma in un lungo lasso di tempo

    Quindi io proporrei una chiave discreta, nè difficile come "gratis", ma nemmeno troppo facile.

    qualcosa che può esserci utile in futuro, così da non sprecare energie..magari una key legata in qualche modo alla directory in modo da reindirizzare le doors alla futura directory.

    Comunque mi piace l'idea di giorgio..come inizio non è male, basta ke nessuno di noi acceda alle nostre pagine tramite google (che sennò ci sballano i dati

    Vi dico pure come si procederà all'analisi in questo caso:

    Non è importante ki è primo e ki è secondo, bensì ogni giorno segneremo il numero di accessi ottenuti alla posizione n in cui ci troviamo..per esempio:

    Giorno 1

    • posizione 1 (50 accessi)
    • posizione 2 (30 accessi)
    • posizione 4 (10 accessi)

    Giorno 2

    • posizione 1 (49 accessi)
    • posizione 2 (32 accessi)
    • posizione 5 (8 accessi)

    ...

    Poi alla fine sommiamo tutti gli accessi per ogni posizione segnalando accanto il numero di giorni in cui siamo stati in quella posizione:

    • posizione 1 (500 accessi) [10 giorni]
    • posizione 2 (400 accessi) [10 giorni]
    • posizione 3 (399 accessi) [15 giorni]
    • posizione 4 (400 accessi) [17 giorni]
    • posizione 5 (200 accessi) [12 giorni]
    • posizione 6 (300 accessi) [20 giorni]

    In questo modo possiamo calcolare la media giornaliera relativa alla posizione n e dunque l'andamento della funzione f(n) che è dunque la formula che lega il numero di accessi di quella serp alla posizione..tramite questa formula possiamo ricavare la formula di cui vi parlavo prima


  • User

    @kerouac3001 said:

    Tecnicamente il rapporto per un numero di accessi tendente all'infinito dovrebbe essere uguale per tutte le serp, perchè non dipende dalla parola cercata ma dall'utente (che può decidere se fermarsi al primo risultato, al secondo, se vedere la prima pagina, se vedere anche la seconda..eccetera)

    Secondo me non è così, dipende molto dalla parola cercata, perchè la qualità della serp restituita varia al cambiare della chiave di ricerca.

    esempio pratico:

    1)con la chiave di ricerca "quotidiano repubblica" è facile presumere che il 99% delle persone non andranno oltre il primo risultato

    2)Invece con la chiave "giochi online" gli utenti visiteranno molte pagine.

    Quindi secondo me il test andrebbe fatto su più chiavi, sinceramente però non saprei come sceglierle


  • Super User

    certo 🙂 ma ho già detto che è logico aspettarsi imprecisioni..d'altra parte è l'unico tipo di analisi che possiamo effettuare 🙂

    Però è ovvio che in media l'utente si comporta in una certa maniera e tramite l'analisi che ho proposto scopriremo comunque nuove cose 😄


  • User Attivo

    Oppure facciamo un network di siti dialer, ci posizioniamo primi 10 per la key sesso, poi voi studiate ed io intasco i dindini! :lol: :lol:

    Scherzi a parte mi sembra abbastanza inutile nonchè difficile prendersi tutti i primi posti di una serp. Anche perchè come si diceva prima, bisogna prendersi le posizioni di una serp che abbia un minimo di competitività, altrimenti è inutile.
    E poi diciamoci la verità: sapere che magari il secondo posto ti porta più visite del primo, ti tornerebbe utile? Saresti in grado di piazzare un sito nella posizione che hai deciso? Io credo che sia quasi impossibile.
    Un conto è cercare di spingere il proprio sito più in alto possibile, un altro essere piazzati in una posizione ben precisa.


  • Super User

    non preoccuparti PJ non servono tutti e 10 le posizioni 🙂 so come fare..al massimo faccio tutto da me..mi ci vorrà + tempo, ma già ho in testa tutto. Capisco l'inutilità ai fini del posizionamento, ma è utile in termini di visite sapere se vale + una serp in cui sei al 15° posto e ke ti porta 10 visite al giorno o una in cui sei 10° e ke ti porta 20 visite al giorno..tu su quale punteresti?

    è utile sapere qual'è la migliore per ottimizzare il sito al meglio..fidati sta cosa può essere più utile di quanto pensi


  • User Attivo

    15° posto e ke ti porta 10 visite al giorno o una in cui sei 10° e ke ti porta 20 visite al giorno..tu su quale punteresti?

    credo che hai sbagliato a formulare la domanda perchè così è scontato che punti su quella in cui sono decimo e ricevo più visite!
    o almeno su quella che so che mi può portare potenzialmente più visite spingo di più!

    in ogni caso sono sempre disposto a darti una mano! magari si scopre qualcosa di interessante! 😉


  • Super User

    azz..PJ hai già fatto un errore..io avrei spinto su quella al 15° posto..non so gli altri, ma se ho una seconda pagina che mi porta 10 visite io punto su quella per arrivare in prima pagina e averne almeno 50 😄

    Visto che non ho sbagliato la domanda? 🙂 sia ke abbia ragione io o che abbia ragione tu resta il fatto che non è facile capire quale key a parità di posizione ci darà risultati più vantaggiosi, quindi un'analisi è d'obbligo 😄


  • User Attivo

    Non ti seguo più! Giuro...

    primo perchè per fare il test che dici e trovargli un'utilità immediata, basta semplicemente tenere d'occhio le statistiche e vedere quante visite ti portano anche le posizioni assurde, dopodichè con un calcoletto (che andrebbe definito) si vede quale key conviene.

    Proviamoci.

    Iniziamo con una semplice proporzione sul tuo esempio.
    Sono in 15 posizione e ricevo 10 visite.
    Quindi:
    15 : 10 = 1 : X

    X = 10/15 = 0.7

    Adesso sono in 10 posizione con un altra key e ricevo 20 visite:
    10 : 20 = 1 : X

    X = 20/10 = 2

    Questi due valori ottenuti ci indicano ipoteticamente quanto vale (in termini di visitatori) ogni posizione.

    Naturalmente è tutta teoria da dimostrare (anche perchè effettivamente i visitatori credo aumentino in maniera esponenziale - nel senso matematico del termine - avvicinandosi alla vetta). L'esame di statistica credo lo dovrò dare solo l'anno prossimo 😄

    sia ke abbia ragione io o che abbia ragione tu resta il fatto che non è facile capire quale key a parità di posizione ci darà risultati più vantaggiosi, quindi un'analisi è d'obbligo

    La questione che hai sollevato è interessante, e forse inizio a capire il senso del test. Io sono a disposizione.

    Mi hai convinto!!!

    C'è nessuno che se ne intenda di analisi qui sopra? Io sono appena agli inizi! 🙂


  • User Attivo

    Ok, ci ho ragionato un po' e tutto quello che posso dire è:
    http://it.wikipedia.org/wiki/Funzioni_iperboliche

    guarda la cosecante iperbolica (e soprattutto il relativo grafico)

    immagina che l'asse delle X rappresenti la posizione di un sito web, mentre l'asse delle Y rappresenti il numero di accessi relativo. Abbiamo così che il lim( x → +∞) = 0 (cioè più la posizione del sito è elevata, meno visitatori riceverà). Come puoi vedere dal grafico la curva a destra si abbassa molto rapidamente, come il numero dei visitatori (per la stragrande maggioranza delle keys il numero di visitatori tende a 0 già dalla 2° pagina).
    Viceversa più ci si avvicina allo 0 (che per noi sarebbe, in realtà, la prima posizione) più i visitatori aumentano, fino a diventare potenzialmente infiniti.

    Mi studio un po' questa funzione, anche se ora sono troppo stanco e domani parto per un weekend al mare. Cmq se cavo un ragno dal buco ti faccio un fischio.

    Fatto sta che sapendo che esiste già una funzione che descriva l'andamento delle visite in relazione alla posizione in serp potrebbe anche risparmiarci il test. Secondo me questa funzione è potenzialmente ottima, andrebbe solo ritoccata. 😉

    :ciauz:

    p.s. come si cambia facilmente idea in appena un'ora di ragionamento! 😄


  • User

    l'importante è fare un bel programma che fotografi ad ogni vostro accesso il posizionamento del sito

    le serp ballano, 1 ora sei primo, l'ora dopo 3°..


  • Community Manager

    kerouac3001 il mio sito è primo per molte chiavi, un altro lo puoi mettere tu.

    Ragazzi chi si unisce.

    Dobbiamo trovare una chiave particolare.


  • Super User

    @kerouac3001 said:

    dunque..il problema è questo:

    Giorno 1

    • posizione 1 (50 accessi)
    • posizione 2 (30 accessi)
    • posizione 4 (10 accessi)

    Giorno 2

    • posizione 1 (49 accessi)
    • posizione 2 (32 accessi)
    • posizione 5 (8 accessi)

    ...

    Poi alla fine sommiamo tutti gli accessi per ogni posizione segnalando accanto il numero di giorni in cui siamo stati in quella posizione:

    • posizione 1 (500 accessi) [10 giorni]
    • posizione 2 (400 accessi) [10 giorni]
    • posizione 3 (399 accessi) [15 giorni]
    • posizione 4 (400 accessi) [17 giorni]
    • posizione 5 (200 accessi) [12 giorni]
    • posizione 6 (300 accessi) [20 giorni]

    In questo modo possiamo calcolare la media giornaliera relativa alla posizione n e dunque l'andamento della funzione f(n) che è dunque la formula che lega il numero di accessi di quella serp alla posizione..tramite questa formula possiamo ricavare la formula di cui vi parlavo prima

    Keruak, per poter sommare dati assoluti di siti diversi come proponi si dovrebbero avere sempre TUTTI i risultati di ogni posizione per tutte key monitorate... cosa abbastanza difficile da avere...

    esempio: se io sono fisso in seconda posizione per una key che porta 10000000 accessi , ma non ho possibilità di vedere quant eme ne porterebbe in 1, 3, 4, 5 e 6° posizione come fai a sommare questo dato con i dati di altri siti come quelli ipotizzati da te sopra? avendo una sola posizione non avremo dati paragonabili...

    Bisognerebbe ragionare in terminia percentuali e non assoluti... cioè data una key che viene ricercata sul motore 3000 volte al mese (overture, o altri strumenti) e quindi 100 volte al giorno se in 1° posizione ottengo 10 visite al giorno segnero' 10%, se in terza ottengo 1 visita allora 1%...

    Sommando le percentuali ottenuti dai siti piu' disparati per le posizioni piu' disparate (non importerà piu' averle tutte di una stessa serp) si otterrebbe una funzione che assegna una percentuale media di click ricevute per la posizione ottenuto rispetto al numero di richieste totali giornaliere...

    ti sembra?


  • Super User

    Allora

    @PJ vabbè che potresti avere ragione sul tipo di funzione, ma senza dati alla mano cosa fai? inventi una funzione a caso? Aspettiamo i dati

    @intruder la base dello script l'ho fatta ieri..appena la concludo ve lo passo

    @giorgio ok, ma dato che vorrei utilizzare il mio script (che non farà molto piacere a google) preferirei utilizzare pagine su altervista..comunque vi spiego tutto dopo

    @nbriani il tuo ragionamento comincia in modo corretto, ma la conclusione sulle percentuali è errata.

    Infatti il calcolo di una percentuale si basa sul numero di posizioni che abbiamo in una serp e dunque bisogna avere le stesse posizioni in 2 serp diverse per poter "sommare" le loro percentuali..quindi si torna al punto di partenza.

    Comunque voi state vedendo il problema dal lato sbagliato..immaginate le doorway che creeremo come dei sensori..ogni sensore viaggia lungo le serp di google e analizza i dati relativi ad accessi e posizionamento per una data key..quindi il giorno 1 sarà in posizione 10 e ci fornirà i dati di quella posizione, il giorno 3 sarà in posizione 8 e ci fornirà i dati di quella posizione..poi magari scende in posizione 9 e così via.

    Mettiamo di ottenere questi dati per queste 2 serp:

    serp 1:
    pos: 1 - accessi: 500 - giorni 10
    pos: 2 - accessi: 400 - giorni 8
    pos: 3 - accessi: 360 - giorni 8
    pos: 4 - accessi: 320 - giorni 8
    pos: 6 - accessi: 200 - giorni 8

    serp 2:
    pos: 1 - accessi: 330 - giorni 11
    pos: 2 - accessi: 200 - giorni 8
    pos: 3 - accessi: 120 - giorni 8
    pos: 4 - accessi: 120 - giorni 10
    pos: 5 - accessi: 70 - giorni 7

    per prima cosa divideremo gli accessi di ogni posizione per il numero di giorni ottenendo il numero di accessi giornalieri...infine eliminiamo la posizione 6 da serp 1 e la 5 da serp 2..adesso abbiamo le prime 4 posizioni per le due serp e possiamo sommare le posizioni uguali delle 2 serp ottenendo dei valori medi.

    Quello che propongo io quindi è di lasciare libere su goggle delle doorway con funzioni da sensore, che captano i dati, li conservano e poi quando ne avremo abbastanza ci occuperemo dell'analisi.

    P.S. studio alla facotà di matematica 😉 fidatevi

    P.P.S. una domanda a tutti..io preferirei utilizzare il mio script per evitare casini..così non dobbiamo perdere tempo a segnarci tutti i dati giornalieri per 1 mese 🙂 però dato che questo script non piacerà a google (immagino abbiate capito il perché) si potrebbero utilizzare delle doorway su altervista..

    Questo anche perchè se giorgio inserisce sto script nel suo sito a google arriveranno migliaia di richieste al giorno, cosa che lo farebbe incazzare non poco..invece utilizzando delle doorway nuove limiteremo gli accessi e prolungheremo i tempi così da non dare fastidio a nessuno (tanto si tratta solamente del grabbing di una pagina per ogni accesso proveniente da google..cosa di poco conto)

    Infine proporrei di iniziare il discorso qui in pubblico ma di terminarlo in privato per evitare ke ragazzini decidano di sfasarci il test accedendo alle doorway tramite google.

    Comunque il discorso generale possiamo farlo qui..poi delle doorway ne parliamo dopo


  • Super User

    Bel thread e bel test.
    Complimenti 😄

    cosecante iperbolica Ragazzi non posso essere dei vostri, sorry, che assolutamente non ci capisco una mazza di iperboliche cosecanti.
    Ma vi seguirò con grande passione tifando per voi.

    P.S. studio alla facotà di matematica 😉 fidatevi OK, se studi all'uni ci fidiamo !

    Comunque il discorso generale possiamo farlo qui.. Ecco bravi, che questo forum ha bisogno di studiare, che si nutre di Test!
    Magari tenetevi protetti, all'inizio, solo i riferimenti più espliciti.


  • Super User

    bene vi farò vedere il mio script all'opera..cercate questa query su google: esperto di posizionamento cerca lavoro

    cliccate su uno dei 2 risultati miei (hostati su impattosonoro.it)..entrate e guardate cosa vi dice sotto il title 😉

    :lol:

    Con questo tool che ho fatto sarà una boiata il test..adesso vi spiego come procederò per il salvataggio dei dati:

    io penso che sia meglio evitare l'sql se vogliamo hostare le door su altervista..altervista permette il comando fopen quindi posso scrivere i dati in un database txt secondo questa forma:

    data [tab] key [tab] posizione [accapo]

    a test concluso se il database è minore di 8 mb posso pure trasportarlo in mysql facilmente..altrimenti lo splitto e lo trasporto in mysql un pezzo alla volta..su mysql possiamo ordinare i dati per data, per posizione, per key e sarà facile procedere all'analisi

    ditemi i vostri pareri


  • Super User

    a mio avviso è parecchio difficile da imbastire questo test.

    per fare in modo che tutte le pagine giochino ad armi pari dovrebbero avere lo stesso title e description altrimenti questo potrebbe essere un fattore che influsce la scelta dell'utente perchè può trovare un title / description più interessante rispetto ad un'altra.

    però, avendo tutti title e description uguali (ammesso che ci riusciamo) l'utente è invogliato a premere sulla prima che gli capita a tiro tanto è indifferente e quindi cliccherà sempre sulla prima (o quasi sempre).

    forse il sistema per fare questo test è di analizzare grossi numeri (ovvero avere tanti e tanti dati in serp diverse che possono appianare eventuali discrepanze tra abitudini degli utenti e differenze tra title e description) e mettere in relazione la posizione con il numero di accessi con il numero di risultati ottenuti per quella serp.

    :bho:


  • Super User

    Tymba è quello che abbiamo detto 🙂 servono grandi dati, ma dobbiamo ritenere il title ininfluente..altrimenti è impossibile fare il test..cmq lo script è finito 🙂 su impattosonoro.it a quanto pare non ho fopen, ma ho testato su spinder.it e funziona tutto..pure il salvataggio dei dati..quindi direi che fra poco potremo partire


  • Super User

    se non comporta rallentamenti nel caricamento delle pagine
    posso mettere sul banco dei test velinefansclub.com
    😄