- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Importanza crescente dei traffic pattern in Google
-
Uppo solo per postare un link di un annetto fa, dove in effetti se ne parlava:
http://www.buzzle.com/editorials/6-10-2005-71368.asp
--- CUT ---
? Site click through rates (CTR)CTR may now be monitored through cache, temporary files, bookmarks and favorites via the Google toolbar or desktop tools. Many have suspected for some time that sites are rewarded for good CTR with a raise in ranking. Similar to how Adwords works.
CTR is monitored to see if fresh or stale content is preferred for a search result.
CTR is also analyzed for increases or decreases relating to trends or seasons.
? Web page rankings are recorded and monitored for changes.
? The traffic to a web page is recorded and monitored over time.
? Sites can be ranked seasonally. A ski site may rank higher in the winter than in the summer. Google can monitor and rank pages by recording CTR changes by season.
? Bookmarks and favorites could be monitored for changes, deletions or additions.
? User behavior in general could be monitored.
--- CUT ---
-
L'editoriale di Buzzle altro non è che un excerpt commentato del brevetto del Marzo 2005 di Google (Information retrieval based on....).
Aggiungo, solo per dovizia di cronaca, che quando fu reso pubblico il brevetto, l'ambiente Seo si divise equamente tra chi lo definì un bluff (purtroppo aggiungo anche il sottoscritto), e chi invece lo accolse come una vera rivelazione.
Le evoluzioni odierne hanno dato (parziale) ragione ai secondi.
Non è mai troppo tardi per riprendere in mano quel documento, magari tradotto, e leggerlo confrontandolo con le osservazioni che ognuno fa quotidianamente con il proprio o i propri siti, magari tenendo aperta una finestra del browser con il proprio webstat sott'occhio..Ho trovato una traduzione qui (so che è stata curata anche da beke)
http://www.motoriericerca.com/?q=Brevetto-Google-Dati-StoriciCordialmente,
Stuart
-
Domanda: ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
Certo, si può obiettare: un sito ottimizzato per i motori di ricerca ha di per sè contenuti E di qualità E originali. Ma questo se il seo è LowLevel, Stuart, etc..
Io vedo che non sempre è cosi.
Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio?
Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet.
E trovo che il comportamento degli utenti sia un fattore utile solo per siti popolari.
-
@SyD said:
Domanda: ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
Si suppone di sì. Anzi, è probabile che il tempo di permanenza (e le pagine viste/visita) siano uno degli indicatori di qualità utilizzati da Google.In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
E' verissimo.Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio?
Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet.
Dipende dalla tua definizione di "popolarità".
Sopra hai scritto una cosa interessante: "tempo di permanenza". Se un sito è ben posizionato, ma presenta contenuti di bassa qualità, farà molto traffico dai motori, ma la durata di una visita sul sito sarà mediamente molto breve. Molti premeranno "Back" entro i primi 5 secondi, tornando sulla SERP.
Viceversa, contenuti di qualità tendono ad attrarre link naturali e bookmark, fanno molto traffico diretto o da "passaparola" (blog, e-mail ecc.), hanno generalmente un alto rapporto pagine viste/visita, e un'alta percentuale di returning visitors.
Quelli che ho appena citato sono tutti indici di popolarità misurabili da un motore di ricerca come Google, oggi, su Internet.
-
@SyD said:
ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
Sicuramente. Ti è mai capitato di visitare un sito, partire con leggere una pagina e poi senza accorgertene leggerne un'altra, e poi un'altra passandoci sopra delle ore? A me è capitato recentemente con snopes.com, ad esempio. Non ritieni giusto che quel tuo behaviour abbia in qualche modo fornito un'opinione positiva di quel sito, indipendentemente dal suo livello di ottimizzazione?@SyD said:
In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
Immagina che il posizionamento sia favorito da una serie di fattori A, B, C, D, E. Dove A è l'ottimizzazione dei contenuti, B il traffico ecc ecc...
In mercati poco competitivi è sufficiente che uno o due di questi parametri siano soddisfatti (ad esempio, la tua pagina tratta del "Ciclo Riproduttivo della Blatta della Mauritania del Sud", converrai con me che non ti servirà una grossa ottimizzazione per arrivare primo con una ricerca simile no?), ma più il mercato diventa competitivo, più diventa necessario soddisfare quanti più fattori possibile: contenuti di qualità, numerosi utenti, backlink ecc ecc...@SyD said:
Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio? Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet. E trovo che il comportamento degli utenti sia un fattore utile solo per siti popolari.
Per questo motivo, il fattore traffico non è che UNO dei tanti fattori in gioco (anche se importante).
E comunque, è questo il motivo per cui ultimamente si insiste sulla necessità di essere anche buoni web marketeer oltre che buoni SEO. A prescindere dai contenuti, il sito deve piacere, deve attirare, deve stimolare la visita reiterata. In ogni modo possibile.
In un mondo ideale, come dici te, un jeans di Armani e un jeans del mercato rionale hanno lo stesso prezzo. Nel mondo reale, non è così, perchè dietro il primo ci sono operazioni di marketing, hype, stimolo dell'individuo a desiderarne il possesso.Triste a dirsi (e secondo me è il motivo principale per cui il fattore traffico / user behaviours incontra così tante barriere mentali tra i webmaster), bisogna riuscire a lavorare con un occhio rivolto ai motori di ricerca, e con l'altro rivolto all'utenza. Perchè dalla soddisfazione di entrambe le entità ormai non si può più prescindere.
Cordialmente,
Stuart
-
@ArkaneFactors said:
Viceversa, contenuti di qualità tendono ad attrarre link naturali e bookmark, fanno molto traffico diretto o da "passaparola" (blog, e-mail ecc.), hanno generalmente un alto rapporto pagine viste/visita, e un'alta percentuale di returning visitors.
Quotation marks.
Non sarei riuscito a dirla meglioCordialmente,
Stuart
-
-
Stuart sta diventando una sorta di icona di questo forum.
Penso pure io che un buon seo, debba essere "prima" o "anche" un buon web marketer.
Alla fine la sua analisi, secondo cui - quanto accade sul web è ne + ne - la trasposizione di quanto accade off line è giustissima !
Ritengo che per posizionarsi in testa ai risultati organici di google, sia corretto applicare ad un progetto on line, tutta quella serie di azioni che il buon senso e l'esperienza maturata off line ci abbiano insegnato.
Spesso in questo forum si è discusso delle conoscenze che un buon seo dovrebbe "portare" nel suo "bagaglio professionale".
Tutte valide le risposte date da molti di noi di volta in volta, basi di programmazione, padronanza della lingua inglese, una buona cultura matematica...
Io aggiungo, la capacità di saper trascodificare le azioni offline in azioni online.
-
@Dell'Orto Fabio said:
Stuart sta diventando una sorta di icona di questo forum.
Troppo buono@Dell'Orto Fabio said:
Penso pure io che un buon seo, debba essere "prima" o "anche" un buon web marketer.........per posizionarsi in testa ai risultati organici di google, sia corretto applicare ad un progetto on line, tutta quella serie di azioni che il buon senso e l'esperienza maturata off line ci abbiano insegnato...........
Io aggiungo, la capacità di saper trascodificare le azioni offline in azioni online.
Il trend sembra essere proprio questo.Una buona metafora è secondo me quella del supermarket: tutto è preordinato a far durare il più possibile la permanenza (ti mettono lo zucchero e il sale in posti improbabili), ma allo stesso tempo la rendono piacevole, con musica, degustazioni, offerte. Anche la disposizione è 'studiata': prima l'hitech, poi gli alimentari (perchè dopo aver comprato pesce surgelato vuoi andare a casa, e non guardarti l'esposizione dei Samsung).
Lo stesso deve avvenire con il proprio sito. Deve essere 'studiato': deve sapersi vendere sia ai motori che agli utenti. E quando ha raggiunto i risultati sperati, cambiare pelle e rinnovarsi.
Cordialmente,
Stuart
-
@Stuart said:
Lo stesso deve avvenire con il proprio sito. Deve essere 'studiato': deve sapersi vendere sia ai motori che agli utenti. E quando ha raggiunto i risultati sperati, cambiare pelle e rinnovarsi.
:ot:
Un mio insegnante mi diceva sempre (a proposito dell'ipnosi, ma potresti applicarlo anche alla pasta fatta in casa :D):
"practice, practice, practice... and when the skills will be on autopilot and you'll think <<I got it!>>.... then you'll need to practice some more :)" *
-
Arkane Factors,
seguo il tuo consiglio e riprendo qui l'intervento che avevo postato in precedenza:http://www.giorgiotave.it/forum/viewtopic.php?t=8672&postdays=0&postorder=asc&start=225
Per risponderti:
Mi riferisco ad altre società equivalenti a Nielsen\NetRatings che ottengono i file di log dagli isp providers in forma anonima precisamente a scopo di analisi del mercato. Non voglio andare OT ma mi è capitato di servirmene e devo riconoscere che sono dati estremamente accurati.Il punto è: se riusciamo (sarebbe meglio dire se riesco?!?) a capire come google si accorge del traffico che riceve un sito allora potremmo sfruttare questo dato a nostro favore.
Come dicevo ho già visto sul mercato usa software che portano "visite fantasma" per migliorare il posizionamento.
Parto dal presupposto che le visite devono neccessariamente arrivare da IP diversi e devono simulare, perlomeno per tempo di visualizzazione della pagina, la visita di un utente reale.
Ora, tu credi che per influenzare il ranking ci sia necessariamente bisogno che G si accorga della visita grazie a TB, click dalla serp, analytics, adsense o related link? Ad ogni modo mi sembra verosimile che G utilizzi i dati raccolti anche grazie ad alexaObeah Man
-
Premetto che non so se e in che misura Google acquisisca e utilizzi dati sul traffico Internet forniti da terzi.
Penso comunque che non ne abbiano bisogno, viste le fonti di cui dispongono in proprio, e inoltre dubito che sarebbe economico per loro acquisirli esternamente (dato il costo tipicamente molto elevato di questo genere di informazioni, e il volume di dati necessario per permettere a Google di applicare efficacemente i propri algoritmi web-scale). Questa è, lo ribadisco, una pura congettura/opinione personale.
Riguardo ai software da te citati, che cercano di simulare traffico naturale, dubito fortemente della loro efficacia, e personalmente mi guarderei bene dall'utilizzarli. Ti copincollo quanto notai a suo tempo nel topic sul sito "americano" di doopcircus:
@ArkaneFactors said:Col problema della click fraud su AdWords, credo che Google abbia sviluppato e messo a punto metodi molto sofisticati per individuare forme di traffico "artificiale" e neutralizzarne l'(eventuale) influenza sul ranking. [...] Gli accessi sono facilmente mistificabili, ma altrettanto facili da smascherare.
Considera che Google attualmente è in grado di sgamare automaticamente il traffico artificiale anche quando questo è rediretto tramite proxy, perciò è chiaro che i filtri di cui dispongono non si limitano ai cookie e agli indirizzi IP, ma effettuano una pattern analysis ben più complessa.
-
Riguardo all'ipotesi mai confermata sull'utilizzo di dati Alexa da parte di Google, quoto il commento di LowLevel a questo [url=http://www.motoricerca.net/archives/2005/08/05/alexa-toolbar-puo-migliorare-il-posizionamento-sui-motori-di-ricerca/]post su motoricerca.net:
@Low said:
Circa Alexa, è improbabile che Google basi il ranking sui dati degli accessi registrati dalla toolbar, in quanto il campione di utenti che la usano non è ?statisticamente rappresentativo? del Web nel suo complesso ed i dati raccolti da Alexa non sono normalizzati proprio in maniera impeccabile?
Tuttavia, periodicamente capita di leggere qualcuno che afferma il contrario. Perché? La mia personale interpretazione è questa: questo qualcuno deve aver notato una correlazione positiva fra i dati sul traffico riportati da Alexa e il ranking su Google, e ne ha tratto una conclusione tanto facile quanto errata.
Ultima considerazione in sfavore dell'ipotesi dell'utilizzo, da parte di Google, di dati sul traffico provenienti da fonti esterne: sarebbe una grave vulnerabilità affidare la raccolta anche solo parziale dei dati che vengono "dati in pasto" ai propri segretissimi algoritmi di ranking a fonti sulle quali Google non esercita un controllo diretto. Non appena lo si venisse a sapere, nascerebbero come funghi gli exploit, e si diffonderebbero pratiche da mercato nero del tipo: "Hey, PSSST! Lo sai che i nostri dati sono utilizzati da Google e influenzano il ranking del tuo sito? Quanto mi dai per farti salire di posizione?".
-
Sui dati di Alexa.
Quoto quanto scritto da ArkaneFactors. Google non usa il traffic rank di Alexa come fattore dei suoi algoritmi. E' una urban legend che torna sporadicamente su vari forum e blog, avvalorata anche dal fatto che Alexa utilizza Google per le ricerche (...e allora magari hanno fatto uno scambio..).
Per Google, la toolbar proprietaria basta e avanzaIn generale, sull'utilizzo di Google di analisi sul traffico di terze parti.
E' più verosimile il processo contrario, ossia che sia Google a rivendere le analisi delle ricerche degli utenti e del traffico di internet.Sui software che generano fake-traffic
Conosco alcuni di quei software, [url=http://www.rankingbooster.com/]questo e [url=http://www.alexaboost.info/]questo, o [url=http://www.fakezilla.com/]questo che è il più noto.
I primi due si basano sul concetto, errato, che avvicinando verso lo zero il traffic rank di Alexa, aumenti il posizionamento. Non è vero, ripeto.
Il terzo, serve più che altro a gonfiare il numero degli accessi al proprio sito per poter tirare sul prezzo quando si vendono Adv (l'ho fatto anche io, lo ammetto).
Consiglio generico: "Non accettate le caramelle dagli sconosciuti".Per progettare e realizzare un fake-click generator per Google (dopo Kelly Rowland, il mio secondo sogno erotico degli ultimi tempi...), bisognerebbe creare un'applicazione che:
- Si collega a Google come se fosse un browser
- Accetta cookie e file temporanei
- Effettua la query
- Cerca tra i risultati l'url da richiamare
- Clicca sull'Url desiderato
E ovviamente faccia Ip spoofing in modo da effettuare accessi sempre con IP diversi, tra una query e l'altra cancelli i cookie, e falsifichi i dati inviati (relativi a browser, OS, risoluzione monitor ecc ecc..).
Inoltre dovrebbe avere una forma di temporizzazione delle query. Insomma, non un approccio di tipo brute force, come 20.000 richieste al minuto.
Tuttavia, se anche funzionasse, a mio parere i dati relativi al CTR vengono rielaborati e filtrati ulteriormente prima di avere un impatto nelle serp.Falsificare i pacchetti dati inviati dalla TB è ancora più complicato, visto che per sapere esattamente COSA E COME viene inviato dal proprio pc tramite toolbar bisognerebbe decompilarla o averne il sorgente.
Cordialmente,
Stuart
-
Grazie Arkane Factors e Stuart,
i vostri interventi sono stati davvero preziosi.
Sostanzialmente volevo capire se era il caso di investire risorse in questa direzione ed al momento la risposta è NO.
Bless,
Obeah Man
-
@Obeah Man said:
Il punto è: se riusciamo (sarebbe meglio dire se riesco?!?) a capire come google si accorge del traffico che riceve un sito allora potremmo sfruttare questo dato a nostro favore.
Io posso solo dirti quale sarà il punto di arrivo: monitoring del traffico sulla rete grazie al fatto che una parte delle infrastrutture di rete apparterranno a Google.
-
@LowLevel said:
Io posso solo dirti quale sarà il punto di arrivo: monitoring del traffico sulla rete grazie al fatto che una parte delle infrastrutture di rete apparterranno a Google.
Google fa sempre più paura benchè affascini per prestazioni: speriamo in qualche altro motore con le palle. Un po' di concorrenza non farebbe male a nessuno credo...
Nik
-
Volevo segnalare, proprio a questo proposito, che (anche se non so da quanto) è nuovamente disponibile per il download il Google Web Accelerator.
-
@Stuart said:
WMW : Apr 4, 2006
Stuart : Feb 26, 2006 ( http://www.giorgiotave.it/forum/viewtopic.php?p=64067 )
Google: Dec 31, 2003 ( Information retrieval based on historical data )Solitamente non cerco l'autocelebrazione a tutti i costi, anche perchè non è nel mio carattere, ma prima che le supposizioni (secondo me per lo più esatte) uscite nel Forum di [url=http://www.webmasterworld.com/forum30/33769.htm]Webmasterworld vengano digerite un po' ovunque, e sui blog dei Seo vengano pubblicati articoli come "Io, L'ho sempre detto!!!" oppure "Ultime novità dei processi di valutazione e ranking di Google: traffico & co.", volevo precisare che potendo contare su un nutrito numero di siti di cui osservare i progressi, il traffic pattern (sia come giustificazione dell'aleatoria sandbox, sia come fattore di valutazione di una pagina) era un macrofattore facilmente desumibile già da almeno un anno.
L'esperimento "[url=http://www.googlerank.com/ita/studio/traffico-VS-sandbox.html]Traffico VS Sandbox", pur nella sua indubbia superficialità e assenza di rigore scientifico (thank Arkane! ), sta comunque fornendo indizi circostanziali, che non aspettano altro che la cosiddetta 'prova del nove' per diventare indizi più concreti. Se il sito di doop (che ripeto, è ed è rimasto un monopagina in flash) non è ancora giunto in prima pagina è proprio perchè è difficile procurare ad un sito un coerente numero di 'accessi' e 'click nelle serp' che sia ONESTO.
In ogni caso, ho/abbiamo rilevato che le fluttuazioni verso l'alto o verso il basso del sito coincidono -con un gap di 48 ore medio- con i giorni di maggiore traffico e i giorni di minore traffico.Detto molto volgarmente, e con una punta di sadismo verso la sensibilità dei puristi dell'IR (:D): se un sito è in 60esima posizione e viene cliccato 10 volte, passa in 50esima. Quando è in 50esima il numero dei click deve aumentare proporzionalmente, altrimenti non serve che sia in 5 pagina).
Queste e altre osservazioni (non userei il termine 'prove' neanche sotto tortura) a fine esperimento, quando raccoglieremo i dati e faremo un post più dettagliato.
Più in generale, ritengo più che plausibile che Google utilizzi i dati del traffico (Accessi spontanei, bookmark, clickthru, migrazioni da un sito all'altro) come parametro di valutazione (ranking) di un documento. Tramite la Toolbar è virtualmente in grado di tracciare qualsiasi tipo di user behaviour: durata, provenienza, browser di chi accede ad un sito.
Non solo, ho personalmente verificato che è assai arduo 'produrre artificialmente' traffico qualificato: anche potendo contare su un esercito di clikkers indiani, non servirebbe a nulla se non, forse, ad arrivare primi su Google India (esiste?).I dati del traffico non sono ovviamente gli unici ad entrare nei processi di valutazione di Google (come LowLevel insegna, nessun motore serio fa affidamento ad un solo modello) , ma a mio parere sono più rilevanti di quanto generalmente si è pensato fino ad ora.
Cordialmente,
StuartQuoto alla grande ogni virgola.
Mi spiace non potervi dire molto, ma vi assicuro che alcuni laboratori stanno testando tutto ciò qui in Italia e tutti i risultati hanno sinora confermato queste tesi. Ho scritto un articolo, a questo proposito, che vedrete, purtroppo, pubblicato tra un paio di mesi.La nota dolente è che queste cose attualmente "germinali", ma se ne intuisce il progetto. Aspettate e diveranno molto più chiare.
Per quanto mi riguarda, è già da un anno che nei nuovi siti che gestisco facciò sì che i team di sviluppo tengano conto delle considerazioni fatte da Stuart.
-
Bellissima discussione e ringraziando tutti quelli che stanno partecipando con contributi veramente di alto livello, vorrei buttare sul piatto anche io qualcosa.
Un paio d'anni fa mi sono chiesto: cosa deve dare il motore ai visitatori? I siti che loro cercano.
Quali caratteristiche devono avere i siti, per essere apprezzati dai visitatori? Risposta provocatoria: che te ne frega? Lascia perdere il tentare di capire quali caratteristiche deve avere un sito per piacere ai visitatori. È più facile chiedere a loro stessi, quali sono i siti che loro preferiscono.Ecco. Non tento più di piacere al motore. Tento di piacere al visitatore. So che il motore a sua volta sta studiando i visitatori per capire a quali siti danno il voto di preferenza. Prima o poi il motore arriverà al mio sito.
Sinora tutti i siti fatti così, sono saliti. Tutti! e spesso senza neanche ottimizzare.
Credo che il futuro non sia tecnico (anche se la conoscenza tecnica di base, per un SEO resterà fondamentale), ma marketing.
Studiare il modello comportamentale dei navigatori è fondamentale. I motori lo stanno facendo ed un motivo ci sarà.
Ad oggi, può sembrare assurdo, ma rende di più investire in un grafico. Rivoluzionario rispetto a quello che divevamo sino a pochi mesi fa (e molti continuano a dirlo). Perché? Semplice. Se la grafica piace molto ai visitatori, non c'è da porsi alcun dubbio. Quel sito salirà, è solo questione di tempo. Scommetto la mia camicia più bella.