- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Analizziamo il rapporto posizione - accessi
-
dunque..il problema è questo:
per avere dati puliti abbiamo bisogno di key con molti accessi giornalieri..oppure key con poki accessi giornalieri (minimo 20) ma in un lungo lasso di tempo
Quindi io proporrei una chiave discreta, nè difficile come "gratis", ma nemmeno troppo facile.
qualcosa che può esserci utile in futuro, così da non sprecare energie..magari una key legata in qualche modo alla directory in modo da reindirizzare le doors alla futura directory.
Comunque mi piace l'idea di giorgio..come inizio non è male, basta ke nessuno di noi acceda alle nostre pagine tramite google (che sennò ci sballano i dati
Vi dico pure come si procederà all'analisi in questo caso:
Non è importante ki è primo e ki è secondo, bensì ogni giorno segneremo il numero di accessi ottenuti alla posizione n in cui ci troviamo..per esempio:
Giorno 1
- posizione 1 (50 accessi)
- posizione 2 (30 accessi)
- posizione 4 (10 accessi)
Giorno 2
- posizione 1 (49 accessi)
- posizione 2 (32 accessi)
- posizione 5 (8 accessi)
...
Poi alla fine sommiamo tutti gli accessi per ogni posizione segnalando accanto il numero di giorni in cui siamo stati in quella posizione:
- posizione 1 (500 accessi) [10 giorni]
- posizione 2 (400 accessi) [10 giorni]
- posizione 3 (399 accessi) [15 giorni]
- posizione 4 (400 accessi) [17 giorni]
- posizione 5 (200 accessi) [12 giorni]
- posizione 6 (300 accessi) [20 giorni]
In questo modo possiamo calcolare la media giornaliera relativa alla posizione n e dunque l'andamento della funzione f(n) che è dunque la formula che lega il numero di accessi di quella serp alla posizione..tramite questa formula possiamo ricavare la formula di cui vi parlavo prima
-
@kerouac3001 said:
Tecnicamente il rapporto per un numero di accessi tendente all'infinito dovrebbe essere uguale per tutte le serp, perchè non dipende dalla parola cercata ma dall'utente (che può decidere se fermarsi al primo risultato, al secondo, se vedere la prima pagina, se vedere anche la seconda..eccetera)
Secondo me non è così, dipende molto dalla parola cercata, perchè la qualità della serp restituita varia al cambiare della chiave di ricerca.
esempio pratico:
1)con la chiave di ricerca "quotidiano repubblica" è facile presumere che il 99% delle persone non andranno oltre il primo risultato
2)Invece con la chiave "giochi online" gli utenti visiteranno molte pagine.
Quindi secondo me il test andrebbe fatto su più chiavi, sinceramente però non saprei come sceglierle
-
certo ma ho già detto che è logico aspettarsi imprecisioni..d'altra parte è l'unico tipo di analisi che possiamo effettuare
Però è ovvio che in media l'utente si comporta in una certa maniera e tramite l'analisi che ho proposto scopriremo comunque nuove cose
-
Oppure facciamo un network di siti dialer, ci posizioniamo primi 10 per la key sesso, poi voi studiate ed io intasco i dindini!
Scherzi a parte mi sembra abbastanza inutile nonchè difficile prendersi tutti i primi posti di una serp. Anche perchè come si diceva prima, bisogna prendersi le posizioni di una serp che abbia un minimo di competitività, altrimenti è inutile.
E poi diciamoci la verità: sapere che magari il secondo posto ti porta più visite del primo, ti tornerebbe utile? Saresti in grado di piazzare un sito nella posizione che hai deciso? Io credo che sia quasi impossibile.
Un conto è cercare di spingere il proprio sito più in alto possibile, un altro essere piazzati in una posizione ben precisa.
-
non preoccuparti PJ non servono tutti e 10 le posizioni so come fare..al massimo faccio tutto da me..mi ci vorrà + tempo, ma già ho in testa tutto. Capisco l'inutilità ai fini del posizionamento, ma è utile in termini di visite sapere se vale + una serp in cui sei al 15° posto e ke ti porta 10 visite al giorno o una in cui sei 10° e ke ti porta 20 visite al giorno..tu su quale punteresti?
è utile sapere qual'è la migliore per ottimizzare il sito al meglio..fidati sta cosa può essere più utile di quanto pensi
-
15° posto e ke ti porta 10 visite al giorno o una in cui sei 10° e ke ti porta 20 visite al giorno..tu su quale punteresti?
credo che hai sbagliato a formulare la domanda perchè così è scontato che punti su quella in cui sono decimo e ricevo più visite!
o almeno su quella che so che mi può portare potenzialmente più visite spingo di più!in ogni caso sono sempre disposto a darti una mano! magari si scopre qualcosa di interessante!
-
azz..PJ hai già fatto un errore..io avrei spinto su quella al 15° posto..non so gli altri, ma se ho una seconda pagina che mi porta 10 visite io punto su quella per arrivare in prima pagina e averne almeno 50
Visto che non ho sbagliato la domanda? sia ke abbia ragione io o che abbia ragione tu resta il fatto che non è facile capire quale key a parità di posizione ci darà risultati più vantaggiosi, quindi un'analisi è d'obbligo
-
Non ti seguo più! Giuro...
primo perchè per fare il test che dici e trovargli un'utilità immediata, basta semplicemente tenere d'occhio le statistiche e vedere quante visite ti portano anche le posizioni assurde, dopodichè con un calcoletto (che andrebbe definito) si vede quale key conviene.
Proviamoci.
Iniziamo con una semplice proporzione sul tuo esempio.
Sono in 15 posizione e ricevo 10 visite.
Quindi:
15 : 10 = 1 : XX = 10/15 = 0.7
Adesso sono in 10 posizione con un altra key e ricevo 20 visite:
10 : 20 = 1 : XX = 20/10 = 2
Questi due valori ottenuti ci indicano ipoteticamente quanto vale (in termini di visitatori) ogni posizione.
Naturalmente è tutta teoria da dimostrare (anche perchè effettivamente i visitatori credo aumentino in maniera esponenziale - nel senso matematico del termine - avvicinandosi alla vetta). L'esame di statistica credo lo dovrò dare solo l'anno prossimo
sia ke abbia ragione io o che abbia ragione tu resta il fatto che non è facile capire quale key a parità di posizione ci darà risultati più vantaggiosi, quindi un'analisi è d'obbligo
La questione che hai sollevato è interessante, e forse inizio a capire il senso del test. Io sono a disposizione.
Mi hai convinto!!!
C'è nessuno che se ne intenda di analisi qui sopra? Io sono appena agli inizi!
-
Ok, ci ho ragionato un po' e tutto quello che posso dire è:
http://it.wikipedia.org/wiki/Funzioni_iperbolicheguarda la cosecante iperbolica (e soprattutto il relativo grafico)
immagina che l'asse delle X rappresenti la posizione di un sito web, mentre l'asse delle Y rappresenti il numero di accessi relativo. Abbiamo così che il lim( x → +∞) = 0 (cioè più la posizione del sito è elevata, meno visitatori riceverà). Come puoi vedere dal grafico la curva a destra si abbassa molto rapidamente, come il numero dei visitatori (per la stragrande maggioranza delle keys il numero di visitatori tende a 0 già dalla 2° pagina).
Viceversa più ci si avvicina allo 0 (che per noi sarebbe, in realtà, la prima posizione) più i visitatori aumentano, fino a diventare potenzialmente infiniti.Mi studio un po' questa funzione, anche se ora sono troppo stanco e domani parto per un weekend al mare. Cmq se cavo un ragno dal buco ti faccio un fischio.
Fatto sta che sapendo che esiste già una funzione che descriva l'andamento delle visite in relazione alla posizione in serp potrebbe anche risparmiarci il test. Secondo me questa funzione è potenzialmente ottima, andrebbe solo ritoccata.
p.s. come si cambia facilmente idea in appena un'ora di ragionamento!
-
l'importante è fare un bel programma che fotografi ad ogni vostro accesso il posizionamento del sito
le serp ballano, 1 ora sei primo, l'ora dopo 3°..
-
kerouac3001 il mio sito è primo per molte chiavi, un altro lo puoi mettere tu.
Ragazzi chi si unisce.
Dobbiamo trovare una chiave particolare.
-
@kerouac3001 said:
dunque..il problema è questo:
Giorno 1
- posizione 1 (50 accessi)
- posizione 2 (30 accessi)
- posizione 4 (10 accessi)
Giorno 2
- posizione 1 (49 accessi)
- posizione 2 (32 accessi)
- posizione 5 (8 accessi)
...
Poi alla fine sommiamo tutti gli accessi per ogni posizione segnalando accanto il numero di giorni in cui siamo stati in quella posizione:
- posizione 1 (500 accessi) [10 giorni]
- posizione 2 (400 accessi) [10 giorni]
- posizione 3 (399 accessi) [15 giorni]
- posizione 4 (400 accessi) [17 giorni]
- posizione 5 (200 accessi) [12 giorni]
- posizione 6 (300 accessi) [20 giorni]
In questo modo possiamo calcolare la media giornaliera relativa alla posizione n e dunque l'andamento della funzione f(n) che è dunque la formula che lega il numero di accessi di quella serp alla posizione..tramite questa formula possiamo ricavare la formula di cui vi parlavo prima
Keruak, per poter sommare dati assoluti di siti diversi come proponi si dovrebbero avere sempre TUTTI i risultati di ogni posizione per tutte key monitorate... cosa abbastanza difficile da avere...
esempio: se io sono fisso in seconda posizione per una key che porta 10000000 accessi , ma non ho possibilità di vedere quant eme ne porterebbe in 1, 3, 4, 5 e 6° posizione come fai a sommare questo dato con i dati di altri siti come quelli ipotizzati da te sopra? avendo una sola posizione non avremo dati paragonabili...
Bisognerebbe ragionare in terminia percentuali e non assoluti... cioè data una key che viene ricercata sul motore 3000 volte al mese (overture, o altri strumenti) e quindi 100 volte al giorno se in 1° posizione ottengo 10 visite al giorno segnero' 10%, se in terza ottengo 1 visita allora 1%...
Sommando le percentuali ottenuti dai siti piu' disparati per le posizioni piu' disparate (non importerà piu' averle tutte di una stessa serp) si otterrebbe una funzione che assegna una percentuale media di click ricevute per la posizione ottenuto rispetto al numero di richieste totali giornaliere...
ti sembra?
-
Allora
@PJ vabbè che potresti avere ragione sul tipo di funzione, ma senza dati alla mano cosa fai? inventi una funzione a caso? Aspettiamo i dati
@intruder la base dello script l'ho fatta ieri..appena la concludo ve lo passo
@giorgio ok, ma dato che vorrei utilizzare il mio script (che non farà molto piacere a google) preferirei utilizzare pagine su altervista..comunque vi spiego tutto dopo
@nbriani il tuo ragionamento comincia in modo corretto, ma la conclusione sulle percentuali è errata.
Infatti il calcolo di una percentuale si basa sul numero di posizioni che abbiamo in una serp e dunque bisogna avere le stesse posizioni in 2 serp diverse per poter "sommare" le loro percentuali..quindi si torna al punto di partenza.
Comunque voi state vedendo il problema dal lato sbagliato..immaginate le doorway che creeremo come dei sensori..ogni sensore viaggia lungo le serp di google e analizza i dati relativi ad accessi e posizionamento per una data key..quindi il giorno 1 sarà in posizione 10 e ci fornirà i dati di quella posizione, il giorno 3 sarà in posizione 8 e ci fornirà i dati di quella posizione..poi magari scende in posizione 9 e così via.
Mettiamo di ottenere questi dati per queste 2 serp:
serp 1:
pos: 1 - accessi: 500 - giorni 10
pos: 2 - accessi: 400 - giorni 8
pos: 3 - accessi: 360 - giorni 8
pos: 4 - accessi: 320 - giorni 8
pos: 6 - accessi: 200 - giorni 8serp 2:
pos: 1 - accessi: 330 - giorni 11
pos: 2 - accessi: 200 - giorni 8
pos: 3 - accessi: 120 - giorni 8
pos: 4 - accessi: 120 - giorni 10
pos: 5 - accessi: 70 - giorni 7per prima cosa divideremo gli accessi di ogni posizione per il numero di giorni ottenendo il numero di accessi giornalieri...infine eliminiamo la posizione 6 da serp 1 e la 5 da serp 2..adesso abbiamo le prime 4 posizioni per le due serp e possiamo sommare le posizioni uguali delle 2 serp ottenendo dei valori medi.
Quello che propongo io quindi è di lasciare libere su goggle delle doorway con funzioni da sensore, che captano i dati, li conservano e poi quando ne avremo abbastanza ci occuperemo dell'analisi.
P.S. studio alla facotà di matematica fidatevi
P.P.S. una domanda a tutti..io preferirei utilizzare il mio script per evitare casini..così non dobbiamo perdere tempo a segnarci tutti i dati giornalieri per 1 mese però dato che questo script non piacerà a google (immagino abbiate capito il perché) si potrebbero utilizzare delle doorway su altervista..
Questo anche perchè se giorgio inserisce sto script nel suo sito a google arriveranno migliaia di richieste al giorno, cosa che lo farebbe incazzare non poco..invece utilizzando delle doorway nuove limiteremo gli accessi e prolungheremo i tempi così da non dare fastidio a nessuno (tanto si tratta solamente del grabbing di una pagina per ogni accesso proveniente da google..cosa di poco conto)
Infine proporrei di iniziare il discorso qui in pubblico ma di terminarlo in privato per evitare ke ragazzini decidano di sfasarci il test accedendo alle doorway tramite google.
Comunque il discorso generale possiamo farlo qui..poi delle doorway ne parliamo dopo
-
Bel thread e bel test.
Complimenticosecante iperbolica Ragazzi non posso essere dei vostri, sorry, che assolutamente non ci capisco una mazza di iperboliche cosecanti.
Ma vi seguirò con grande passione tifando per voi.P.S. studio alla facotà di matematica fidatevi OK, se studi all'uni ci fidiamo !
Comunque il discorso generale possiamo farlo qui.. Ecco bravi, che questo forum ha bisogno di studiare, che si nutre di Test!
Magari tenetevi protetti, all'inizio, solo i riferimenti più espliciti.
-
bene vi farò vedere il mio script all'opera..cercate questa query su google: esperto di posizionamento cerca lavoro
cliccate su uno dei 2 risultati miei (hostati su impattosonoro.it)..entrate e guardate cosa vi dice sotto il title
Con questo tool che ho fatto sarà una boiata il test..adesso vi spiego come procederò per il salvataggio dei dati:
io penso che sia meglio evitare l'sql se vogliamo hostare le door su altervista..altervista permette il comando fopen quindi posso scrivere i dati in un database txt secondo questa forma:
data [tab] key [tab] posizione [accapo]
a test concluso se il database è minore di 8 mb posso pure trasportarlo in mysql facilmente..altrimenti lo splitto e lo trasporto in mysql un pezzo alla volta..su mysql possiamo ordinare i dati per data, per posizione, per key e sarà facile procedere all'analisi
ditemi i vostri pareri
-
a mio avviso è parecchio difficile da imbastire questo test.
per fare in modo che tutte le pagine giochino ad armi pari dovrebbero avere lo stesso title e description altrimenti questo potrebbe essere un fattore che influsce la scelta dell'utente perchè può trovare un title / description più interessante rispetto ad un'altra.
però, avendo tutti title e description uguali (ammesso che ci riusciamo) l'utente è invogliato a premere sulla prima che gli capita a tiro tanto è indifferente e quindi cliccherà sempre sulla prima (o quasi sempre).
forse il sistema per fare questo test è di analizzare grossi numeri (ovvero avere tanti e tanti dati in serp diverse che possono appianare eventuali discrepanze tra abitudini degli utenti e differenze tra title e description) e mettere in relazione la posizione con il numero di accessi con il numero di risultati ottenuti per quella serp.
:bho:
-
Tymba è quello che abbiamo detto servono grandi dati, ma dobbiamo ritenere il title ininfluente..altrimenti è impossibile fare il test..cmq lo script è finito su impattosonoro.it a quanto pare non ho fopen, ma ho testato su spinder.it e funziona tutto..pure il salvataggio dei dati..quindi direi che fra poco potremo partire
-
se non comporta rallentamenti nel caricamento delle pagine
posso mettere sul banco dei test velinefansclub.com
-
grazie per l'offerta ma preferirei di no..dato che uso il grabbing non vorrei che google decidesse di penalizzare chi usa questa tecnica..quindi proporrei di utilizzare solo delle doorway..così non rischiamo nulla
-
Ottimo anche la key
kerouac3001 la serp [url=http://www.google.it/search?q=programmi+gratis&start=0&start=0&ie=utf-8&hl=it&oe=utf-8&client=firefox-a&rls=org.mozilla:it-IT:official]programmi gratis
Vedo anche il sito di marcio e di pigot4
O la serp [url=http://www.google.it/search?hs=Cbb&hl=it&c2coff=1&client=firefox-a&rls=org.mozilla%3Ait-IT%3Aofficial&biw=1024&q=tutto+gratis&btnG=Cerca&meta=]tutto gratis
Possiamo contattarli e vedere se ci stanno