- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Importanza crescente dei traffic pattern in Google
-
Perdona la mia abissale ed ingiustificata ignoranza...ma Kudos ..?
Cioè.. in una scala ideale dove **1 **è rappresentato da un abbraccio caloroso e 10 da un calcio nelle zone depresse con la rincorsa, Kudos = ?Cordialmente,
Stuart
-
[url=http://www.google.it/search?q=define%3Akudos]kudos è una parola greca ormai entrata a far parte del geek speak a significare apprezzamento, riconoscenza, gratitudine ecc.
-
@ArkaneFactors said:
kudos è una parola greca ormai entrata a far parte del geek speak
Ho imparato una cosa nuova...
Azz... sto invecchiando seriamente...Cordialmente,
Stuart
-
:ot: Beh, s'impara sempre. Io per esempio ho imparato solo ora che "kudos" (un calco linguistico dal greco, per essere precisi) non è hacker slang come pensavo, ma fa proprio parte dell'inglese moderno ("It entered English as British university slang in the early 1800s", dice [url=http://en.wikipedia.org/wiki/Kudos]wikipedia). Cosa che non sapevo, avendola letta esclusivamente in Rete finora. Anyway, QDOS 2 U.
-
@Stuart said:
Solitamente non cerco l'autocelebrazione a tutti i costi,
(io si, sono un insopportabile egocentrico , ma resisterò alla tentazione di linkare qualche mio post passato )
era un macrofattore facilmente desumibile già da almeno un anno.
Sono perfettamente d'accordo. Penso che qualcosa fosse intuibile già nella seconda metà del 2004.
Secondo me i due più grandi fattori che la maggior parte dei SEO ha finora ignorato sono l'analisi del traffico e quella delle query. Assieme, è quello che io chiamo "net buzz".
In particolare, analizzando le query è possibile individuare temi su cui si concentra l'attenzione degli utenti (una tecnica ideata inizialmente per Google News), questo buzz potrebbe giustificare un improvviso aumento di link verso quei siti che discutono l'argomento oggetto delle ricerche. Quindi di per sé un picco nell'aumento dei link non è sospetto, dipende dal contesto.
se un sito è in 60esima posizione e viene cliccato 10 volte, passa in 50esima. Quando è in 50esima il numero dei click deve aumentare proporzionalmente, altrimenti non serve che sia in 5 pagina.
Sempre tenendo conto dei siti che lo precedono. Perché per quanto l'aumento di click non sia lineare, la curva di crescita necessaria può essere più o meno ripida a seconda di quanto la query sia competitiva.
I dati del traffico non sono ovviamente gli unici ad entrare nei processi di valutazione di Google (come LowLevel insegna, nessun motore serio fa affidamento ad un solo modello) , ma a mio parere sono più rilevanti di quanto generalmente si è pensato fino ad ora.
Convengo anche su questo. E' necessario mettersi nei panni del motore e cercare di capire che tipo di informazioni gli saranno utili in futuro per migliorare la qualità delle SERP.
Che l'era della link popularity sia all'inizio della sua decadenza, dovrebbe essere una cosa evidente a tutti.
-
non lo so... condivido l'analisi, ma mi chiedo anche:
affinchè un fattore venga preso in considerazione da un motore di ricerca, deve essere UNIVERSALE.
la posizione nella SERP, per google, è universale, perchè la genera lui. il click su un risultato è universale, perchè fatto sul suo server e da lui monitorato. l'anzianità di un dominio è un dato unico e noto, e universale.
il TRAFFICO invece, o i dati generati dalla toolbar o da Analytics, non sono universali... perchè molti non usano la toolbar e molti altri non usano Analytics... andrebbero sottopesati, IMHO.
quindi da un lato la vostra analisi mi spaventa un po'... :bho:
-
@Tambu said:
il TRAFFICO invece, o i dati generati dalla toolbar o da Analytics, non sono universali...
Non rispecchiano il 100% degli utenti di internet e di Google, certo. Ma forniscono dei dati statisticamente attendibili, in quanto la base utenza è ampia e diffusa a livello globale (pensa a quanti hanno la TB installata...)
Pensa ad esempio ai dati Auditel Televisivi, calcolati sulla base delle preferenze di un numero assai limitato di cittadini che hanno il rilevatore. Eppure sulla base di un numero relativamente esiguo di campioni, l'Auditel riesce a calcolare l'indice di gradimento di decine di milioni di telespettatori.La tecnologia esiste già da tempo, ad esempio Alexa è stato il primo a rendere pubbliche le analisi del traffico tracciato da toolbar. E per quanto la toolbar di Alexa sia infinitamente meno diffusa di quella di Google, i dati forniti sono considerati autorevoli e costituiscono spesso la discriminante di molti web marketeers sullo scegliere un sito piuttosto che un altro.
Quanto all'universalità dei fattori applicati da un motore, ritengo che ci siano svariati fattori universali usati da Google nei processi di IR, ma che vengano impiegati diversamente a seconda della tipologia di mercato, di sito, delle query.
@LowLevel said:
resisterò alla tentazione di linkare qualche mio post passato
Allora li cercherò io e li quoterò in questo topic
La mia superbia, seppur in buona fede, è meglio che lasci il posto all' informazione e alla seria divulgazione che hai fatto in tempi non sospetti
(così testo l'efficacia dell'Information Retrieval del motore di ricerca del Forum GT)@LowLevel said:
Sempre tenendo conto dei siti che lo precedono. Perché per quanto l'aumento di click non sia lineare, la curva di crescita necessaria può essere più o meno ripida a seconda di quanto la query sia competitiva.
Assolutamente.
La mia era una considerazione molto rudimentale e immediata (da uomo del popolo ), gli altri fattori del posizionamento, sempre importanti, erano impliciti.@LowLevel said:
Che l'era della link popularity sia all'inizio della sua decadenza, dovrebbe essere una cosa evidente a tutti.
Quoto in pieno.
My opinion, è che con l'inseguimento del Pagerank a tutti i costi, la compravendita di unrelated link solo ai fini di incremento PR, si sia lentamente perso il concetto di 'random surfer model' che sta alla base dell'algoritmo originario, trasformando l'utente virtuale in una specie di Dea Kalì con 10 braccia e altrettanti mouse che clicca su qualsiasi link che trova.
I dati del traffico (in entrata, ma anche in uscita) potrebbero realmente dare un effettivo e reale peso ai link da e verso una pagina, facendo una cernita tra i collegamenti che sono utili all'utente per il proseguimento della sua navigazione e quelli che sono messi per bellezza.
(insieme ovviamente a tutti gli altri effetti collaterali del traffic pattern già discussi sopra)Cordialmente,
Stuart
-
@Stuart said:
Allora li cercherò io e li quoterò in questo topic
La mia superbia, seppur in buona fede, è meglio che lasci il posto all' informazione e alla seria divulgazione che hai fatto in tempi non sospettiMar Set 20, 2005
http://www.giorgiotave.it/forum/viewtopic.php?t=3803Parlando di Sandbox...
@LowLevel said:Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia...
@LowLevel said:
Più che altro il tipo di materiale utile agli algoritmi per registrare l'opinione che il Web ha del sito. Ovvero: backlink e traffico. (backlink di sicuro, traffico secondo una mia illazione).Trattasi di classico esempio di "Espansione dell'Ego" per conto terzi
just kidding...Cordialmente,
Stuart
-
Uppo solo per postare un link di un annetto fa, dove in effetti se ne parlava:
http://www.buzzle.com/editorials/6-10-2005-71368.asp
--- CUT ---
? Site click through rates (CTR)CTR may now be monitored through cache, temporary files, bookmarks and favorites via the Google toolbar or desktop tools. Many have suspected for some time that sites are rewarded for good CTR with a raise in ranking. Similar to how Adwords works.
CTR is monitored to see if fresh or stale content is preferred for a search result.
CTR is also analyzed for increases or decreases relating to trends or seasons.
? Web page rankings are recorded and monitored for changes.
? The traffic to a web page is recorded and monitored over time.
? Sites can be ranked seasonally. A ski site may rank higher in the winter than in the summer. Google can monitor and rank pages by recording CTR changes by season.
? Bookmarks and favorites could be monitored for changes, deletions or additions.
? User behavior in general could be monitored.
--- CUT ---
-
L'editoriale di Buzzle altro non è che un excerpt commentato del brevetto del Marzo 2005 di Google (Information retrieval based on....).
Aggiungo, solo per dovizia di cronaca, che quando fu reso pubblico il brevetto, l'ambiente Seo si divise equamente tra chi lo definì un bluff (purtroppo aggiungo anche il sottoscritto), e chi invece lo accolse come una vera rivelazione.
Le evoluzioni odierne hanno dato (parziale) ragione ai secondi.
Non è mai troppo tardi per riprendere in mano quel documento, magari tradotto, e leggerlo confrontandolo con le osservazioni che ognuno fa quotidianamente con il proprio o i propri siti, magari tenendo aperta una finestra del browser con il proprio webstat sott'occhio..Ho trovato una traduzione qui (so che è stata curata anche da beke)
http://www.motoriericerca.com/?q=Brevetto-Google-Dati-StoriciCordialmente,
Stuart
-
Domanda: ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
Certo, si può obiettare: un sito ottimizzato per i motori di ricerca ha di per sè contenuti E di qualità E originali. Ma questo se il seo è LowLevel, Stuart, etc..
Io vedo che non sempre è cosi.
Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio?
Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet.
E trovo che il comportamento degli utenti sia un fattore utile solo per siti popolari.
-
@SyD said:
Domanda: ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
Si suppone di sì. Anzi, è probabile che il tempo di permanenza (e le pagine viste/visita) siano uno degli indicatori di qualità utilizzati da Google.In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
E' verissimo.Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio?
Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet.
Dipende dalla tua definizione di "popolarità".
Sopra hai scritto una cosa interessante: "tempo di permanenza". Se un sito è ben posizionato, ma presenta contenuti di bassa qualità, farà molto traffico dai motori, ma la durata di una visita sul sito sarà mediamente molto breve. Molti premeranno "Back" entro i primi 5 secondi, tornando sulla SERP.
Viceversa, contenuti di qualità tendono ad attrarre link naturali e bookmark, fanno molto traffico diretto o da "passaparola" (blog, e-mail ecc.), hanno generalmente un alto rapporto pagine viste/visita, e un'alta percentuale di returning visitors.
Quelli che ho appena citato sono tutti indici di popolarità misurabili da un motore di ricerca come Google, oggi, su Internet.
-
@SyD said:
ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
Sicuramente. Ti è mai capitato di visitare un sito, partire con leggere una pagina e poi senza accorgertene leggerne un'altra, e poi un'altra passandoci sopra delle ore? A me è capitato recentemente con snopes.com, ad esempio. Non ritieni giusto che quel tuo behaviour abbia in qualche modo fornito un'opinione positiva di quel sito, indipendentemente dal suo livello di ottimizzazione?@SyD said:
In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
Immagina che il posizionamento sia favorito da una serie di fattori A, B, C, D, E. Dove A è l'ottimizzazione dei contenuti, B il traffico ecc ecc...
In mercati poco competitivi è sufficiente che uno o due di questi parametri siano soddisfatti (ad esempio, la tua pagina tratta del "Ciclo Riproduttivo della Blatta della Mauritania del Sud", converrai con me che non ti servirà una grossa ottimizzazione per arrivare primo con una ricerca simile no?), ma più il mercato diventa competitivo, più diventa necessario soddisfare quanti più fattori possibile: contenuti di qualità, numerosi utenti, backlink ecc ecc...@SyD said:
Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio? Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet. E trovo che il comportamento degli utenti sia un fattore utile solo per siti popolari.
Per questo motivo, il fattore traffico non è che UNO dei tanti fattori in gioco (anche se importante).
E comunque, è questo il motivo per cui ultimamente si insiste sulla necessità di essere anche buoni web marketeer oltre che buoni SEO. A prescindere dai contenuti, il sito deve piacere, deve attirare, deve stimolare la visita reiterata. In ogni modo possibile.
In un mondo ideale, come dici te, un jeans di Armani e un jeans del mercato rionale hanno lo stesso prezzo. Nel mondo reale, non è così, perchè dietro il primo ci sono operazioni di marketing, hype, stimolo dell'individuo a desiderarne il possesso.Triste a dirsi (e secondo me è il motivo principale per cui il fattore traffico / user behaviours incontra così tante barriere mentali tra i webmaster), bisogna riuscire a lavorare con un occhio rivolto ai motori di ricerca, e con l'altro rivolto all'utenza. Perchè dalla soddisfazione di entrambe le entità ormai non si può più prescindere.
Cordialmente,
Stuart
-
@ArkaneFactors said:
Viceversa, contenuti di qualità tendono ad attrarre link naturali e bookmark, fanno molto traffico diretto o da "passaparola" (blog, e-mail ecc.), hanno generalmente un alto rapporto pagine viste/visita, e un'alta percentuale di returning visitors.
Quotation marks.
Non sarei riuscito a dirla meglioCordialmente,
Stuart
-
-
Stuart sta diventando una sorta di icona di questo forum.
Penso pure io che un buon seo, debba essere "prima" o "anche" un buon web marketer.
Alla fine la sua analisi, secondo cui - quanto accade sul web è ne + ne - la trasposizione di quanto accade off line è giustissima !
Ritengo che per posizionarsi in testa ai risultati organici di google, sia corretto applicare ad un progetto on line, tutta quella serie di azioni che il buon senso e l'esperienza maturata off line ci abbiano insegnato.
Spesso in questo forum si è discusso delle conoscenze che un buon seo dovrebbe "portare" nel suo "bagaglio professionale".
Tutte valide le risposte date da molti di noi di volta in volta, basi di programmazione, padronanza della lingua inglese, una buona cultura matematica...
Io aggiungo, la capacità di saper trascodificare le azioni offline in azioni online.
-
@Dell'Orto Fabio said:
Stuart sta diventando una sorta di icona di questo forum.
Troppo buono@Dell'Orto Fabio said:
Penso pure io che un buon seo, debba essere "prima" o "anche" un buon web marketer.........per posizionarsi in testa ai risultati organici di google, sia corretto applicare ad un progetto on line, tutta quella serie di azioni che il buon senso e l'esperienza maturata off line ci abbiano insegnato...........
Io aggiungo, la capacità di saper trascodificare le azioni offline in azioni online.
Il trend sembra essere proprio questo.Una buona metafora è secondo me quella del supermarket: tutto è preordinato a far durare il più possibile la permanenza (ti mettono lo zucchero e il sale in posti improbabili), ma allo stesso tempo la rendono piacevole, con musica, degustazioni, offerte. Anche la disposizione è 'studiata': prima l'hitech, poi gli alimentari (perchè dopo aver comprato pesce surgelato vuoi andare a casa, e non guardarti l'esposizione dei Samsung).
Lo stesso deve avvenire con il proprio sito. Deve essere 'studiato': deve sapersi vendere sia ai motori che agli utenti. E quando ha raggiunto i risultati sperati, cambiare pelle e rinnovarsi.
Cordialmente,
Stuart
-
@Stuart said:
Lo stesso deve avvenire con il proprio sito. Deve essere 'studiato': deve sapersi vendere sia ai motori che agli utenti. E quando ha raggiunto i risultati sperati, cambiare pelle e rinnovarsi.
:ot:
Un mio insegnante mi diceva sempre (a proposito dell'ipnosi, ma potresti applicarlo anche alla pasta fatta in casa :D):
"practice, practice, practice... and when the skills will be on autopilot and you'll think <<I got it!>>.... then you'll need to practice some more :)" *
-
Arkane Factors,
seguo il tuo consiglio e riprendo qui l'intervento che avevo postato in precedenza:http://www.giorgiotave.it/forum/viewtopic.php?t=8672&postdays=0&postorder=asc&start=225
Per risponderti:
Mi riferisco ad altre società equivalenti a Nielsen\NetRatings che ottengono i file di log dagli isp providers in forma anonima precisamente a scopo di analisi del mercato. Non voglio andare OT ma mi è capitato di servirmene e devo riconoscere che sono dati estremamente accurati.Il punto è: se riusciamo (sarebbe meglio dire se riesco?!?) a capire come google si accorge del traffico che riceve un sito allora potremmo sfruttare questo dato a nostro favore.
Come dicevo ho già visto sul mercato usa software che portano "visite fantasma" per migliorare il posizionamento.
Parto dal presupposto che le visite devono neccessariamente arrivare da IP diversi e devono simulare, perlomeno per tempo di visualizzazione della pagina, la visita di un utente reale.
Ora, tu credi che per influenzare il ranking ci sia necessariamente bisogno che G si accorga della visita grazie a TB, click dalla serp, analytics, adsense o related link? Ad ogni modo mi sembra verosimile che G utilizzi i dati raccolti anche grazie ad alexaObeah Man
-
Premetto che non so se e in che misura Google acquisisca e utilizzi dati sul traffico Internet forniti da terzi.
Penso comunque che non ne abbiano bisogno, viste le fonti di cui dispongono in proprio, e inoltre dubito che sarebbe economico per loro acquisirli esternamente (dato il costo tipicamente molto elevato di questo genere di informazioni, e il volume di dati necessario per permettere a Google di applicare efficacemente i propri algoritmi web-scale). Questa è, lo ribadisco, una pura congettura/opinione personale.
Riguardo ai software da te citati, che cercano di simulare traffico naturale, dubito fortemente della loro efficacia, e personalmente mi guarderei bene dall'utilizzarli. Ti copincollo quanto notai a suo tempo nel topic sul sito "americano" di doopcircus:
@ArkaneFactors said:Col problema della click fraud su AdWords, credo che Google abbia sviluppato e messo a punto metodi molto sofisticati per individuare forme di traffico "artificiale" e neutralizzarne l'(eventuale) influenza sul ranking. [...] Gli accessi sono facilmente mistificabili, ma altrettanto facili da smascherare.
Considera che Google attualmente è in grado di sgamare automaticamente il traffico artificiale anche quando questo è rediretto tramite proxy, perciò è chiaro che i filtri di cui dispongono non si limitano ai cookie e agli indirizzi IP, ma effettuano una pattern analysis ben più complessa.