• Super User

    @Stuart said:

    Solitamente non cerco l'autocelebrazione a tutti i costi,

    (io si, sono un insopportabile egocentrico 😄 , ma resisterò alla tentazione di linkare qualche mio post passato 😄 )

    era un macrofattore facilmente desumibile già da almeno un anno.

    Sono perfettamente d'accordo. Penso che qualcosa fosse intuibile già nella seconda metà del 2004.

    Secondo me i due più grandi fattori che la maggior parte dei SEO ha finora ignorato sono l'analisi del traffico e quella delle query. Assieme, è quello che io chiamo "net buzz".

    In particolare, analizzando le query è possibile individuare temi su cui si concentra l'attenzione degli utenti (una tecnica ideata inizialmente per Google News), questo buzz potrebbe giustificare un improvviso aumento di link verso quei siti che discutono l'argomento oggetto delle ricerche. Quindi di per sé un picco nell'aumento dei link non è sospetto, dipende dal contesto.

    se un sito è in 60esima posizione e viene cliccato 10 volte, passa in 50esima. Quando è in 50esima il numero dei click deve aumentare proporzionalmente, altrimenti non serve che sia in 5 pagina.

    Sempre tenendo conto dei siti che lo precedono. Perché per quanto l'aumento di click non sia lineare, la curva di crescita necessaria può essere più o meno ripida a seconda di quanto la query sia competitiva.

    I dati del traffico non sono ovviamente gli unici ad entrare nei processi di valutazione di Google (come LowLevel insegna, nessun motore serio fa affidamento ad un solo modello) , ma a mio parere sono più rilevanti di quanto generalmente si è pensato fino ad ora.

    Convengo anche su questo. E' necessario mettersi nei panni del motore e cercare di capire che tipo di informazioni gli saranno utili in futuro per migliorare la qualità delle SERP.

    Che l'era della link popularity sia all'inizio della sua decadenza, dovrebbe essere una cosa evidente a tutti.


  • Super User

    non lo so... condivido l'analisi, ma mi chiedo anche:

    affinchè un fattore venga preso in considerazione da un motore di ricerca, deve essere UNIVERSALE.

    la posizione nella SERP, per google, è universale, perchè la genera lui. il click su un risultato è universale, perchè fatto sul suo server e da lui monitorato. l'anzianità di un dominio è un dato unico e noto, e universale.

    il TRAFFICO invece, o i dati generati dalla toolbar o da Analytics, non sono universali... perchè molti non usano la toolbar e molti altri non usano Analytics... andrebbero sottopesati, IMHO.
    quindi da un lato la vostra analisi mi spaventa un po'... :bho:


  • Super User

    @Tambu said:

    il TRAFFICO invece, o i dati generati dalla toolbar o da Analytics, non sono universali...
    Non rispecchiano il 100% degli utenti di internet e di Google, certo. Ma forniscono dei dati statisticamente attendibili, in quanto la base utenza è ampia e diffusa a livello globale (pensa a quanti hanno la TB installata...)
    Pensa ad esempio ai dati Auditel Televisivi, calcolati sulla base delle preferenze di un numero assai limitato di cittadini che hanno il rilevatore. Eppure sulla base di un numero relativamente esiguo di campioni, l'Auditel riesce a calcolare l'indice di gradimento di decine di milioni di telespettatori.

    La tecnologia esiste già da tempo, ad esempio Alexa è stato il primo a rendere pubbliche le analisi del traffico tracciato da toolbar. E per quanto la toolbar di Alexa sia infinitamente meno diffusa di quella di Google, i dati forniti sono considerati autorevoli e costituiscono spesso la discriminante di molti web marketeers sullo scegliere un sito piuttosto che un altro.

    Quanto all'universalità dei fattori applicati da un motore, ritengo che ci siano svariati fattori universali usati da Google nei processi di IR, ma che vengano impiegati diversamente a seconda della tipologia di mercato, di sito, delle query.

    @LowLevel said:

    resisterò alla tentazione di linkare qualche mio post passato 😄
    Allora li cercherò io e li quoterò in questo topic 😉
    La mia superbia, seppur in buona fede, è meglio che lasci il posto all' informazione e alla seria divulgazione che hai fatto in tempi non sospetti 🙂
    (così testo l'efficacia dell'Information Retrieval del motore di ricerca del Forum GT) 😄

    @LowLevel said:

    Sempre tenendo conto dei siti che lo precedono. Perché per quanto l'aumento di click non sia lineare, la curva di crescita necessaria può essere più o meno ripida a seconda di quanto la query sia competitiva.
    Assolutamente.
    La mia era una considerazione molto rudimentale e immediata (da uomo del popolo 😄 ), gli altri fattori del posizionamento, sempre importanti, erano impliciti.

    @LowLevel said:

    Che l'era della link popularity sia all'inizio della sua decadenza, dovrebbe essere una cosa evidente a tutti.
    Quoto in pieno.
    My opinion, è che con l'inseguimento del Pagerank a tutti i costi, la compravendita di unrelated link solo ai fini di incremento PR, si sia lentamente perso il concetto di 'random surfer model' che sta alla base dell'algoritmo originario, trasformando l'utente virtuale in una specie di Dea Kalì con 10 braccia e altrettanti mouse che clicca su qualsiasi link che trova.
    I dati del traffico (in entrata, ma anche in uscita) potrebbero realmente dare un effettivo e reale peso ai link da e verso una pagina, facendo una cernita tra i collegamenti che sono utili all'utente per il proseguimento della sua navigazione e quelli che sono messi per bellezza.
    (insieme ovviamente a tutti gli altri effetti collaterali del traffic pattern già discussi sopra)

    Cordialmente,
    Stuart


  • Super User

    @Stuart said:

    Allora li cercherò io e li quoterò in questo topic 😉
    La mia superbia, seppur in buona fede, è meglio che lasci il posto all' informazione e alla seria divulgazione che hai fatto in tempi non sospetti

    Mar Set 20, 2005
    http://www.giorgiotave.it/forum/viewtopic.php?t=3803

    Parlando di Sandbox...
    @LowLevel said:

    Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia...
    @LowLevel said:
    Più che altro il tipo di materiale utile agli algoritmi per registrare l'opinione che il Web ha del sito. Ovvero: backlink e traffico. (backlink di sicuro, traffico secondo una mia illazione).

    Trattasi di classico esempio di "Espansione dell'Ego" per conto terzi 😄
    just kidding...

    Cordialmente,
    Stuart


  • User Attivo

    Uppo solo per postare un link di un annetto fa, dove in effetti se ne parlava:
    http://www.buzzle.com/editorials/6-10-2005-71368.asp
    --- CUT ---
    ? Site click through rates (CTR)

    CTR may now be monitored through cache, temporary files, bookmarks and favorites via the Google toolbar or desktop tools. Many have suspected for some time that sites are rewarded for good CTR with a raise in ranking. Similar to how Adwords works.

    CTR is monitored to see if fresh or stale content is preferred for a search result.

    CTR is also analyzed for increases or decreases relating to trends or seasons.

    ? Web page rankings are recorded and monitored for changes.

    ? The traffic to a web page is recorded and monitored over time.

    ? Sites can be ranked seasonally. A ski site may rank higher in the winter than in the summer. Google can monitor and rank pages by recording CTR changes by season.

    ? Bookmarks and favorites could be monitored for changes, deletions or additions.

    ? User behavior in general could be monitored.
    --- CUT ---


  • Super User

    L'editoriale di Buzzle altro non è che un excerpt commentato del brevetto del Marzo 2005 di Google (Information retrieval based on....).

    Aggiungo, solo per dovizia di cronaca, che quando fu reso pubblico il brevetto, l'ambiente Seo si divise equamente tra chi lo definì un bluff (purtroppo aggiungo anche il sottoscritto), e chi invece lo accolse come una vera rivelazione.

    Le evoluzioni odierne hanno dato (parziale) ragione ai secondi.
    Non è mai troppo tardi per riprendere in mano quel documento, magari tradotto, e leggerlo confrontandolo con le osservazioni che ognuno fa quotidianamente con il proprio o i propri siti, magari tenendo aperta una finestra del browser con il proprio webstat sott'occhio..

    Ho trovato una traduzione qui (so che è stata curata anche da beke)
    http://www.motoriericerca.com/?q=Brevetto-Google-Dati-Storici

    Cordialmente,
    Stuart


  • User Attivo

    Domanda: ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?

    In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.

    Certo, si può obiettare: un sito ottimizzato per i motori di ricerca ha di per sè contenuti E di qualità E originali. Ma questo se il seo è LowLevel, Stuart, etc..

    Io vedo che non sempre è cosi.

    Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio?

    Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet.
    E trovo che il comportamento degli utenti sia un fattore utile solo per siti popolari.


  • Super User

    @SyD said:

    Domanda: ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
    Si suppone di sì. Anzi, è probabile che il tempo di permanenza (e le pagine viste/visita) siano uno degli indicatori di qualità utilizzati da Google.

    In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
    E' verissimo.

    Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio?

    Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet.
    Dipende dalla tua definizione di "popolarità". 🙂
    Sopra hai scritto una cosa interessante: "tempo di permanenza". Se un sito è ben posizionato, ma presenta contenuti di bassa qualità, farà molto traffico dai motori, ma la durata di una visita sul sito sarà mediamente molto breve. Molti premeranno "Back" entro i primi 5 secondi, tornando sulla SERP.
    Viceversa, contenuti di qualità tendono ad attrarre link naturali e bookmark, fanno molto traffico diretto o da "passaparola" (blog, e-mail ecc.), hanno generalmente un alto rapporto pagine viste/visita, e un'alta percentuale di returning visitors.
    Quelli che ho appena citato sono tutti indici di popolarità misurabili da un motore di ricerca come Google, oggi, su Internet.


  • Super User

    @SyD said:

    ma i contenuti di qualità sono correlati positivamente al comportamento degli utenti (es:tempo di permanenza)?
    Sicuramente. Ti è mai capitato di visitare un sito, partire con leggere una pagina e poi senza accorgertene leggerne un'altra, e poi un'altra passandoci sopra delle ore? A me è capitato recentemente con snopes.com, ad esempio. Non ritieni giusto che quel tuo behaviour abbia in qualche modo fornito un'opinione positiva di quel sito, indipendentemente dal suo livello di ottimizzazione?

    @SyD said:

    In molti casi ci sono siti ottimizzati per i motori di ricerca che hanno meno contenuti di qualità di siti dello stesso settore non ottimizzati.
    Immagina che il posizionamento sia favorito da una serie di fattori A, B, C, D, E. Dove A è l'ottimizzazione dei contenuti, B il traffico ecc ecc...
    In mercati poco competitivi è sufficiente che uno o due di questi parametri siano soddisfatti (ad esempio, la tua pagina tratta del "Ciclo Riproduttivo della Blatta della Mauritania del Sud", converrai con me che non ti servirà una grossa ottimizzazione per arrivare primo con una ricerca simile no?), ma più il mercato diventa competitivo, più diventa necessario soddisfare quanti più fattori possibile: contenuti di qualità, numerosi utenti, backlink ecc ecc...

    @SyD said:

    Voglio dire: se un sito è più popolare di un altro ma ha contenuti meno originali, "pesare" questi fattori non sarebbe un fattore di ulteriore squilibrio? Dico questo perchè a mio avviso l'equazione QUALITA'=POPOLARITA' vale per un mondo idealizzato, ma non per Internet. E trovo che il comportamento degli utenti sia un fattore utile solo per siti popolari.
    Per questo motivo, il fattore traffico non è che UNO dei tanti fattori in gioco (anche se importante).
    E comunque, è questo il motivo per cui ultimamente si insiste sulla necessità di essere anche buoni web marketeer oltre che buoni SEO. A prescindere dai contenuti, il sito deve piacere, deve attirare, deve stimolare la visita reiterata. In ogni modo possibile.
    In un mondo ideale, come dici te, un jeans di Armani e un jeans del mercato rionale hanno lo stesso prezzo. Nel mondo reale, non è così, perchè dietro il primo ci sono operazioni di marketing, hype, stimolo dell'individuo a desiderarne il possesso.

    Triste a dirsi (e secondo me è il motivo principale per cui il fattore traffico / user behaviours incontra così tante barriere mentali tra i webmaster), bisogna riuscire a lavorare con un occhio rivolto ai motori di ricerca, e con l'altro rivolto all'utenza. Perchè dalla soddisfazione di entrambe le entità ormai non si può più prescindere.

    Cordialmente,
    Stuart


  • Super User

    @ArkaneFactors said:

    Viceversa, contenuti di qualità tendono ad attrarre link naturali e bookmark, fanno molto traffico diretto o da "passaparola" (blog, e-mail ecc.), hanno generalmente un alto rapporto pagine viste/visita, e un'alta percentuale di returning visitors.
    Quotation marks.
    Non sarei riuscito a dirla meglio 😄

    Cordialmente,
    Stuart


  • Super User

    🙂


  • Bannato Super User

    Stuart sta diventando una sorta di icona di questo forum.

    Penso pure io che un buon seo, debba essere "prima" o "anche" un buon web marketer.

    Alla fine la sua analisi, secondo cui - quanto accade sul web è ne + ne - la trasposizione di quanto accade off line è giustissima !

    Ritengo che per posizionarsi in testa ai risultati organici di google, sia corretto applicare ad un progetto on line, tutta quella serie di azioni che il buon senso e l'esperienza maturata off line ci abbiano insegnato.

    Spesso in questo forum si è discusso delle conoscenze che un buon seo dovrebbe "portare" nel suo "bagaglio professionale".

    Tutte valide le risposte date da molti di noi di volta in volta, basi di programmazione, padronanza della lingua inglese, una buona cultura matematica...

    Io aggiungo, la capacità di saper trascodificare le azioni offline in azioni online.

    🙂


  • Super User

    @Dell'Orto Fabio said:

    Stuart sta diventando una sorta di icona di questo forum.
    Troppo buono 🙂

    @Dell'Orto Fabio said:

    Penso pure io che un buon seo, debba essere "prima" o "anche" un buon web marketer.........per posizionarsi in testa ai risultati organici di google, sia corretto applicare ad un progetto on line, tutta quella serie di azioni che il buon senso e l'esperienza maturata off line ci abbiano insegnato...........
    Io aggiungo, la capacità di saper trascodificare le azioni offline in azioni online.
    Il trend sembra essere proprio questo.

    Una buona metafora è secondo me quella del supermarket: tutto è preordinato a far durare il più possibile la permanenza (ti mettono lo zucchero e il sale in posti improbabili), ma allo stesso tempo la rendono piacevole, con musica, degustazioni, offerte. Anche la disposizione è 'studiata': prima l'hitech, poi gli alimentari (perchè dopo aver comprato pesce surgelato vuoi andare a casa, e non guardarti l'esposizione dei Samsung).

    Lo stesso deve avvenire con il proprio sito. Deve essere 'studiato': deve sapersi vendere sia ai motori che agli utenti. E quando ha raggiunto i risultati sperati, cambiare pelle e rinnovarsi.

    Cordialmente,
    Stuart


  • User Attivo

    @Stuart said:

    Lo stesso deve avvenire con il proprio sito. Deve essere 'studiato': deve sapersi vendere sia ai motori che agli utenti. E quando ha raggiunto i risultati sperati, cambiare pelle e rinnovarsi.

    :ot:

    Un mio insegnante mi diceva sempre (a proposito dell'ipnosi, ma potresti applicarlo anche alla pasta fatta in casa :D):

    "practice, practice, practice... and when the skills will be on autopilot and you'll think <<I got it!>>.... then you'll need to practice some more :)" *


  • User

    Arkane Factors,

    seguo il tuo consiglio e riprendo qui l'intervento che avevo postato in precedenza:http://www.giorgiotave.it/forum/viewtopic.php?t=8672&postdays=0&postorder=asc&start=225

    Per risponderti:
    Mi riferisco ad altre società equivalenti a Nielsen\NetRatings che ottengono i file di log dagli isp providers in forma anonima precisamente a scopo di analisi del mercato. Non voglio andare OT ma mi è capitato di servirmene e devo riconoscere che sono dati estremamente accurati.

    Il punto è: se riusciamo (sarebbe meglio dire se riesco?!?) a capire come google si accorge del traffico che riceve un sito allora potremmo sfruttare questo dato a nostro favore.

    Come dicevo ho già visto sul mercato usa software che portano "visite fantasma" per migliorare il posizionamento.

    Parto dal presupposto che le visite devono neccessariamente arrivare da IP diversi e devono simulare, perlomeno per tempo di visualizzazione della pagina, la visita di un utente reale.
    Ora, tu credi che per influenzare il ranking ci sia necessariamente bisogno che G si accorga della visita grazie a TB, click dalla serp, analytics, adsense o related link? Ad ogni modo mi sembra verosimile che G utilizzi i dati raccolti anche grazie ad alexa

    Obeah Man


  • Super User

    Premetto che non so se e in che misura Google acquisisca e utilizzi dati sul traffico Internet forniti da terzi.

    Penso comunque che non ne abbiano bisogno, viste le fonti di cui dispongono in proprio, e inoltre dubito che sarebbe economico per loro acquisirli esternamente (dato il costo tipicamente molto elevato di questo genere di informazioni, e il volume di dati necessario per permettere a Google di applicare efficacemente i propri algoritmi web-scale). Questa è, lo ribadisco, una pura congettura/opinione personale.

    Riguardo ai software da te citati, che cercano di simulare traffico naturale, dubito fortemente della loro efficacia, e personalmente mi guarderei bene dall'utilizzarli. Ti copincollo quanto notai a suo tempo nel topic sul sito "americano" di doopcircus:
    @ArkaneFactors said:

    Col problema della click fraud su AdWords, credo che Google abbia sviluppato e messo a punto metodi molto sofisticati per individuare forme di traffico "artificiale" e neutralizzarne l'(eventuale) influenza sul ranking. [...] Gli accessi sono facilmente mistificabili, ma altrettanto facili da smascherare.
    Considera che Google attualmente è in grado di sgamare automaticamente il traffico artificiale anche quando questo è rediretto tramite proxy, perciò è chiaro che i filtri di cui dispongono non si limitano ai cookie e agli indirizzi IP, ma effettuano una pattern analysis ben più complessa.


  • Super User

    Riguardo all'ipotesi mai confermata sull'utilizzo di dati Alexa da parte di Google, quoto il commento di LowLevel a questo [url=http://www.motoricerca.net/archives/2005/08/05/alexa-toolbar-puo-migliorare-il-posizionamento-sui-motori-di-ricerca/]post su motoricerca.net:

    @Low said:

    Circa Alexa, è improbabile che Google basi il ranking sui dati degli accessi registrati dalla toolbar, in quanto il campione di utenti che la usano non è ?statisticamente rappresentativo? del Web nel suo complesso ed i dati raccolti da Alexa non sono normalizzati proprio in maniera impeccabile? 😉

    Tuttavia, periodicamente capita di leggere qualcuno che afferma il contrario. Perché? La mia personale interpretazione è questa: questo qualcuno deve aver notato una correlazione positiva fra i dati sul traffico riportati da Alexa e il ranking su Google, e ne ha tratto una conclusione tanto facile quanto errata. 🙂

    Ultima considerazione in sfavore dell'ipotesi dell'utilizzo, da parte di Google, di dati sul traffico provenienti da fonti esterne: sarebbe una grave vulnerabilità affidare la raccolta anche solo parziale dei dati che vengono "dati in pasto" ai propri segretissimi algoritmi di ranking a fonti sulle quali Google non esercita un controllo diretto. Non appena lo si venisse a sapere, nascerebbero come funghi gli exploit, e si diffonderebbero pratiche da mercato nero del tipo: "Hey, PSSST! Lo sai che i nostri dati sono utilizzati da Google e influenzano il ranking del tuo sito? Quanto mi dai per farti salire di posizione?".


  • Super User

    Sui dati di Alexa.
    Quoto quanto scritto da ArkaneFactors. Google non usa il traffic rank di Alexa come fattore dei suoi algoritmi. E' una urban legend che torna sporadicamente su vari forum e blog, avvalorata anche dal fatto che Alexa utilizza Google per le ricerche (...e allora magari hanno fatto uno scambio..).
    Per Google, la toolbar proprietaria basta e avanza 🙂

    In generale, sull'utilizzo di Google di analisi sul traffico di terze parti.
    E' più verosimile il processo contrario, ossia che sia Google a rivendere le analisi delle ricerche degli utenti e del traffico di internet.

    Sui software che generano fake-traffic
    Conosco alcuni di quei software, [url=http://www.rankingbooster.com/]questo e [url=http://www.alexaboost.info/]questo, o [url=http://www.fakezilla.com/]questo che è il più noto.
    I primi due si basano sul concetto, errato, che avvicinando verso lo zero il traffic rank di Alexa, aumenti il posizionamento. Non è vero, ripeto.
    Il terzo, serve più che altro a gonfiare il numero degli accessi al proprio sito per poter tirare sul prezzo quando si vendono Adv (l'ho fatto anche io, lo ammetto).
    Consiglio generico: "Non accettate le caramelle dagli sconosciuti".

    Per progettare e realizzare un fake-click generator per Google (dopo Kelly Rowland, il mio secondo sogno erotico degli ultimi tempi...), bisognerebbe creare un'applicazione che:

    1. Si collega a Google come se fosse un browser
    2. Accetta cookie e file temporanei
    3. Effettua la query
    4. Cerca tra i risultati l'url da richiamare
    5. Clicca sull'Url desiderato

    E ovviamente faccia Ip spoofing in modo da effettuare accessi sempre con IP diversi, tra una query e l'altra cancelli i cookie, e falsifichi i dati inviati (relativi a browser, OS, risoluzione monitor ecc ecc..).
    Inoltre dovrebbe avere una forma di temporizzazione delle query. Insomma, non un approccio di tipo brute force, come 20.000 richieste al minuto.
    Tuttavia, se anche funzionasse, a mio parere i dati relativi al CTR vengono rielaborati e filtrati ulteriormente prima di avere un impatto nelle serp.

    Falsificare i pacchetti dati inviati dalla TB è ancora più complicato, visto che per sapere esattamente COSA E COME viene inviato dal proprio pc tramite toolbar bisognerebbe decompilarla o averne il sorgente.

    Cordialmente,
    Stuart


  • User

    Grazie Arkane Factors e Stuart,

    i vostri interventi sono stati davvero preziosi.

    Sostanzialmente volevo capire se era il caso di investire risorse in questa direzione ed al momento la risposta è NO.

    Bless,
    Obeah Man


  • Super User

    @Obeah Man said:

    Il punto è: se riusciamo (sarebbe meglio dire se riesco?!?) a capire come google si accorge del traffico che riceve un sito allora potremmo sfruttare questo dato a nostro favore.

    Io posso solo dirti quale sarà il punto di arrivo: monitoring del traffico sulla rete grazie al fatto che una parte delle infrastrutture di rete apparterranno a Google.