• Super User

    Il fatto che i motori, ora come ora, diano importanza a cosa viene cliccato nelle serp, piuttosto che al tempo di permanenza nel sito, è un limite molto stringente che ha il motore nel giudicare, perchè vuol dire semplicemente se il SEO ha dato una buona descrizione nel mata tag description o nei sottotitoli.

    Ma bisogna anche tener conto che i motori moderni non sfruttano i click sui risultati allo stesso modo con cui venivano sfruttati dai motori della vecchia generazione.

    I motori della vecchia generazione si limitavano a sfruttare i click per far salire di posizione le pagine. Magari in maniera non grezza (ad esempio calcolavano le percentuali medie di click per ciascuna delle posizioni sulla pagina e facevano salire solo le pagine che si discostavano dalle percentuali previste), ma si trattava pur sempre di un modello "più click = migliore posizione".

    Oggi questo non è più vero. Un motore di ricerca moderno sarebbe folle ad adottare un modello simile, in quanto consapevole della debolezza intrinseca di un sistema così banale.

    Questo non significa che i click non vengano conteggiati, significa solo che tali informazioni vengono sfruttate in maniera estremamente più sofisticata.

    Quando, dopo anni privi di monitoring dei click, Google iniziò timidamente ad introdurre nelle pagine delle SERP del codice per il tracciamento dei click, un loro portavoce disse esplicitamente che l'interesse era di acquisire quelle informazioni solo per misurare meglio la qualità delle SERP.

    Questo avveniva circa tre anni fa. Da allora è cambiato sia il metodo di tracking sia le sue finalità, in quanto le informazioni sul comportamento degli utenti sulle SERP vengono adesso usate anche per stabilire la posizione delle pagine.

    Tuttavia, nota che io parlo di "comportamento degli utenti", non di "click sui risultati".

    Il click, di per sé, non è un indicatore di qualità perché, come tu giustamente dici, può significare semplicemente che titoli e descrizioni siano stati scritti ad arte dal webmaster/SEO.

    Ma se le informazioni sui click vengono integrate con dati di altro genere, come la velocità di reazione dell'utente o la capacità della pagina raggiunta di fungere da hub per una risorsa/pagina secondaria, allora il quadro generale cambia e il motore inizia a possedere delle informazioni utili anche per valutare le pagine cliccate ed eventualmente modificarne la posizione nelle SERP.

    Ad esempio, non vi è dubbio che una delle pagine del mio sito abbia finora raggiunto una ottima posizione nelle SERP solo in funzione di tali fattori. Tale pagina tratta un argomento poco rilevante con i contenuti del sito, sta infossata nella gerarchia di navigazione, non beneficia di backlink particolarmente utili a migliorarne la posizione ed i suoi testi non sono ottimizzati. Ciononostante gode di una posizione inaspettata. Perché?

    A mio parere perché la lettura del solo titolo di quella pagina nelle SERP porta l'utente ad esclamare "cazzarola!" e a cliccarla in una frazione di secondo. L'utente effettua la ricerca in tema con quella pagina, e si aspetta che Google e Yahoo gli propongano di tutto, tranne che l'informazione scritta nel titolo di quella pagina. Reazione istantanea e capacità della pagina di inviare l'utente ad una risorsa esterna (e quindi il tempo di visualizzazione della pagina è davvero minimo😞 un'accoppiata vincente. Primo o poi gli metto un AdSense. 😄

    Questo a sottolineare come l'assunto "più tempo = più utile per l'utente" non è necessariamente corretto.

    quando ero a Roma ho notato che il termine piuttosto viene usato nell'accezione di inoltre

    E' ugualmente corretto. Lo si fa anche con "ovvero", usato con l'accezione di "oppure". Credo si tratti di utilizzi un po' demodè, usati in passato sopratutto in giurisprudenza o nel burocratese. Recentemente son tornati di moda e si son diffusi nella lingua parlata.

    Se l'utente sta 5 secondi mediamente su un sito A e 3 minuti su B, 2 minuti su C, 5 minuti su D, non solo vuol dire che A va levato dalle serp per quella query, ma che se i dati sono gli stessi anche per altre query correlate potremmo essere in presenza di uno SPAM ENGINE.

    Riguardo il tempo di permanenza, la conclusione che il sito vada tolto da una SERP mi pare una semplificazione eccessiva del problema. L'esempio che ho fatto sopra dovrebbe rendere chiaro il fatto che il tempo di permanenza sulla pagina (singola, peraltro, non l'intero sito) non è un indicatore di qualità né di utilità.

    Riguardo gli spam engine, penso che esistano metodi più semplici e migliori per rilevarli. Sopratutto perché l'utente medio è capace di navigarsi in lungo ed in largo uno spam engine trovandolo persino utile.

    Su questo Forum sono il pane quotidiano; all'estero, anche su Forum autorevolissimi, certi discorsi sarebbero quasi improponibili.

    Convengo appieno.

    Quali sono tutti questi parametri, allora chiedo, ragazzi?

    Questa è una domanda importante ai fini del reverse engineering, ma da alcuni anni ho affiancato a queste pratiche una filosofia indiretta: creando il miglior sito possibile, lo si ottimizza indirettamente anche per quei fattori, presenti e futuri, di cui noi ignoriamo ed ignoreremo l'esistenza.

    Ovviamente poi subentra la mia indole informatica, che mi spinge a predire quali macro-elementi i motori hanno interesse a valutare. Pertanto so che l'aggiunta dei bookmark alla toolbar di Google ha finalità che ad un SEO dovrebbero risultare evidenti, ma classifico questo singolo elemento nella macro categoria "user behavioural".

    implementare negli algoritmi attuali un'ulteriore discriminante come "Per le query X, Y, Z la durata ottimale è N minuti, per le query W , J , K, la durata ottimale è T minuti...." sarebbe troppo complesso a fronte di risultati equivalenti raggiungibili con gli attuali algoritmi o con sistemi meno complicati.

    Non è molto complesso, ma è vero che è abbastanza superfluo. Bisogna vedere, a fronte della complessità di implementazione relativamente bassa, se sarà uno dei tanti parametri che aggiungeranno al calderone o se se ne fregheranno. Come dicevo prima, penso che la permanenza sarà solo un parametro secondario, uno dei tanti.

    percezione che il motore ha del sito sulla base della WEB'S OPINION

    Giustissimo, ma consiglio di fare un passo oltre: togliere "web" ed inserire "global". Google indicizza già i caption di alcune trasmissioni TV e nessuno sa se/quanto influisca la citazione di un dominio internet sulla CNN (lo consideriamo un "link"?) sull'opinione che Google avrà del sito ospitato su quel dominio.

    I motori di ricerca non si accontenteranno di Internet (e dico "Internet" e non "Web" perché si potrebbero fare tante gustose supposizioni sulla posta elettronica o sulla chat).


  • Community Manager

    @LowLevel said:

    Giustissimo, ma consiglio di fare un passo oltre: togliere "web" ed inserire "global". Google indicizza già i caption di alcune trasmissioni TV e nessuno sa se/quanto influisca la citazione di un dominio internet sulla CNN (lo consideriamo un "link"?) sull'opinione che Google avrà del sito ospitato su quel dominio.

    I motori di ricerca non si accontenteranno di Internet (e dico "Internet" e non "Web" perché si potrebbero fare tante gustose supposizioni sulla posta elettronica o sulla chat).

    Ora c'è anche Google Calendar 😄

    GTalk come sapete memorizza le chattate e Google ha tantissimi strumenti per monitorare il comportamento degli utenti. Tutti ora si aspettano l'uscita del PC con possibilità di vedere la Televisione e cliccare su Adsense 😄


    Però vorrei introdurre un argomento di cui si parla poco nei Forum SEO, ringraziando Stuart per l'apprezzamento alla community e dicendo che Low ci ha dato, in tempi non sospetti, una [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6145]grossa spinta.

    17 Dic 2005

    Vi chiederete perché faccio questo discorso proprio alla comunità di giorgiotave e proprio su questo forum. Risposta: siete i migliori. E dico internazionalmente, senza scherzare.

    16 Apr 2006

    Su questo Forum sono il pane quotidiano; all'estero, anche su Forum autorevolissimi, certi discorsi sarebbero quasi improponibili.

    Abbiamo introdotto e discusso su molti concetti come Information Retrieval, vector model, Booleano, espansione della query, Hilltop, Topic sensitive pagerank, Latent Semantic Indexing, TrustRank, Thesauri

    ed ora ce ne sono altri da approfondire citati da Stuart e da Low in vari post che vedrò di recuperare (qualcuno fà una lista dei nuovi termini? :D).

    Tutto questo grazie a questa bella comunità che non si è fermata ed ha deciso di approfondire l'argomento SEO.

    Agoago sà benissimo che sono gli utenti "nuovi" del mestiere ad avere l'idea geniale 😄


    Torniamo all'argomento che vorrei introdurre nel Topic l'essenza dei motori di ricerca. Perchè Stuart e Low hanno parlato dei fattori importanti completandosi con i loro discorsi però io ho un dubbio tremendo:

    Domanda: Come fà un webmaster a creare un sito valido e farlo salire nelle Serp di una competitività mostruosa?

    Risposta: creare una risorsa utilissima e differenziarsi.

    La risposta, ovvia, banale, ripetitiva, scontata, di circostanza, ma che di sicuro racchiude il mestiere del SEO e SEM in sè, provoca un'altra domanda:

    Come fà Google a determinare che quel sito è valido e quindi presentarlo nelle SERP competitivissime ai suoi utenti cercando di non farli ridere?

    Invitando anche Agoago, Fradefrà, Beke, Dell'Orto, Rinzi, Marco Tuscany e tutti gli altri che non cito perchè vado di fretta mi sentirei di citare alcuni punti che un motore di ricerca tiene in considerazione, secondo il mio parere:

    • Flaggare un sito
      Ho sentito varie volte sia in questo Forum sia in vari articoli (forse Beke?) parlare del Flag del sito, ovvero (almeno credo) del momento in cui Google dice: Bene tu sei Ok. (qualcuno identifica questo momento con l'uscita del Sandbox, argomento molto discusso in passa tra i SEO).

    • Link dai Flaggati
      Quindi se un sito è Flaggato la sua importanza nel dare un voto ad altri siti aumenta e quindi un link è più importante.

    • Link dagli HUB
      Gli Hub sappiamo cosa sono e quanto sono importanti e considerati da Google.

    • Ritmo di crescita dei contenuti e link
      Questo determina anche il Flag. Secondo me (vi ricordo che sono solo idee) c'è un primo controllo da parte di Google che permette di valutare quanto in realtà è buono il sito per gli utenti. In questo periodo vengono contati anche i ritmi di crescita dei contenuti e dei link in entrata.

    In un motore ideale sarebbe veramente ottimo avere dei fattori che controllino alcuni fattori, ma ci sarebbe un grande consumo di risorse, nascono troppi siti.

    Quindi stringendo al sodo credo che la qualità dei link (ed il tempo di crescita) ed in qualche modo il tempo di crescita dei contenuti ancora oggi sono importantissimi per controllare i siti validi.

    Serp, dove sei finito che dicevi che un tuo amico controllava le SERP a mano, ce lo fai questo post Ru Iaang? :fumato:


  • Super User

    EDIT:scusami Giorgio, hai postato mentre scrivevo 🙂
    Insomma, Low, vuoi proprio costringermi a stempare tutto il post e incorniciarmelo sul muro :)?

    @LowLevel said:

    Ma se le informazioni sui click vengono integrate con dati di altro genere, come la velocità di reazione dell'utente o la capacità della pagina raggiunta di fungere da hub per una risorsa/pagina secondaria, allora il quadro generale cambia e il motore inizia a possedere delle informazioni utili anche per valutare le pagine cliccate ed eventualmente modificarne la posizione nelle SERP.

    Ad esempio, non vi è dubbio che una delle pagine del mio sito abbia finora raggiunto una ottima posizione nelle SERP solo in funzione di tali fattori. Tale pagina tratta un argomento poco rilevante con i contenuti del sito, sta infossata nella gerarchia di navigazione, non beneficia di backlink particolarmente utili a migliorarne la posizione ed i suoi testi non sono ottimizzati. Ciononostante gode di una posizione inaspettata. Perché?

    A mio parere perché la lettura del solo titolo di quella pagina nelle SERP porta l'utente ad esclamare "cazzarola!" e a cliccarla in una frazione di secondo. L'utente effettua la ricerca in tema con quella pagina, e si aspetta che Google e Yahoo gli propongano di tutto, tranne che l'informazione scritta nel titolo di quella pagina. Reazione istantanea e capacità della pagina di inviare l'utente ad una risorsa esterna (e quindi il tempo di visualizzazione della pagina è davvero minimo): un'accoppiata vincente. Primo o poi gli metto un AdSense.

    Questo a sottolineare come l'assunto "più tempo = più utile per l'utente" non è necessariamente corretto.

    Si, ma si potrebbe sicuramente affermare questo: un conto è la scarsa permanenza dovuta ad un click sul link presente nella pagina stessa che fungerebbe, come dici tu, da perfetto hub :), un conto è la scarsa permanenza dovuta alla chiusura della finestra.
    Vedrò di scoprire qual è quella pagina , mi hai incuriosito :).

    @LowLevel said:

    Citazione:

    Quali sono tutti questi parametri, allora chiedo, ragazzi?

    Questa è una domanda importante ai fini del reverse engineering, ma da alcuni anni ho affiancato a queste pratiche una filosofia indiretta: creando il miglior sito possibile, lo si ottimizza indirettamente anche per quei fattori, presenti e futuri, di cui noi ignoriamo ed ignoreremo l'esistenza.

    Su queste affermazioni sono stradaccordo. In altri post, ho affermato più volte come il mio sforzo personale nello studio per raggiungere le prime posizioni sui motori di ricerca stia lentamente ma inesorabilmente andando a convergere verso il filone usabilità. L'arte della Search Engine Optimization è un'altra strada parallela e asintoticamente (;) ) convergente verso quell'arte che fa fare il miglior sito web possibile, e non il sito web più ottimizzato possibile come era una volta.
    Quanto più ci sforzeremo per fregare i motori, tanto più questi diventaranno bravi nel considerare le risorse giuste.
    Nella mia tesi sull' "active learning nella classificazione automatica di documenti di testo" si cercava, sfruttando il lavoro di alcuni operatori umani, di addestrare una rete neurale per smistare automaticamente alcuni documenti di testo nelle relative categorie. Si partiva da un seme di documenti costruiti ad hoc, vari documenti perfetti per ogni categoria per l'addestramento iniziale della rete neurale. Poi si davano in pasto nuovi documenti alla rete stessa e la si lasciava svolgere il suo lavoro di classificazione monitorandolo con gli operatori. Quando la rete non era in grado di classificare un documento spurio con sufficiente sicurezza, "chiedeva" all'operatore umano di intervenire classificandolo manualmente, e questo "errore", anche se in questo caso preannunciato, andava a rafforzare gli ingressi della rete addestrandola a comportarsi di conseguenza di fronte a documenti che presentassero delle affinità con quelli potenzialmente passibili dello stesso tipo di dubbio. Bè con questo sistema si raggiungevano asintoticamente ( e daglie :D) percentuali di classificazione variabili tra l'80% ed il 97%.
    Potrebbe essere plausibile che il motore sfrutti allo stesso modo i siti che ricevono maggiori segnalazioni tramite l'apposito modulo anti SPAM.
    Del resto il cervello dell'uomo, la rete neurale per eccellenza, in questo momento sta apprendendo che il signor Micky deve essere proprio il nerd perfetto, se il giorno di Pasquetta si mette a scrivere queste cose 😉


  • Super User

    Vedrò di scoprire qual è quella pagina , mi hai incuriosito

    Ricerca [encarta], sto in prima pagina sulle ricerche italiane su Yahoo e stavo in prima pagina fino a qualche giorno fa (adesso in seconda) su Google.it

    Potrebbe essere plausibile che il motore sfrutti allo stesso modo i siti che ricevono maggiori segnalazioni tramite l'apposito modulo anti SPAM.

    Un ingegnere di Google una volta si lasciò scappare una frase che faceva supporre l'utilizzo di tecniche di apprendimento tipiche dei sistemi neurali per l'identificazione di siti di spam.

    In particolare, disse che è teoricamente possibile essere scambiati per spammer se il sito possiede diversi elementi simili a quelli presenti nei siti degli spammer.


  • Super User

    [EDIT]: ho visto la pagina, Low 😄

    Supponiamo che abbia un pagina con ottimi contenuti e parecchi link verso lo stesso sito cui appartiene, o anche verso un sito esterno, a maggior ragione alla luce del discorso che sto per fare.
    Sarebbe meglio, in virtù del fattore hubbing, vale a dire la capacità che ha la pagina di far cliccare verso le risorse(link) che possiede, mettere il link con i target"_blank" per dare la possibilità di cliccare su altre risorse?


  • Super User

    @Giorgiotave said:

    • Flaggare un sito
      Ho sentito varie volte sia in questo Forum sia in vari articoli (forse Beke?) parlare del Flag del sito, ovvero (almeno credo) del momento in cui Google dice: Bene tu sei Ok. (qualcuno identifica questo momento con l'uscita del Sandbox, argomento molto discusso in passa tra i SEO)
      Potrei sbagliarmi, ma il 'Flag' di un sito è generalmente considerato un fattore negativo, e attiene al momento in cui un sito è ufficialmente sospettato di mettere in atto pratiche spam che meritano approfondimenti.

    Anche in accordo con l'utilizzo che Matt Cutts fa del termine 'Flag' in alcuni suoi post, un sito viene flaggato quando a) algoritmicamente il motore identifica all'interno di un sito un'operatività simile allo spam (pagine uguali, redirect sospette, troppi link in entrata in breve tempo ecc ecc....), oppure b) quando a carico di un dato sito pendono un gran numero di spam report, e quindi il sito viene segnalato per una futura indagine.

    Il termine, forse, giusto per evidenziare siti che vengono considerati OK, e/o autorevoli, importanti, perfettamente assimilati all'interno dell'archivio (e che quindi beneficiano di ottimi posizionamenti, e danno link 'pesanti' all'esterno) è "Established Sites*".

    Non penso che lo status di established lo si ottenga con l'uscita dalla sandbox, visto che il concetto di sandbox racchiude in sè tutto e niente, e forse attiene semplicemente alla mancanza di una storia (link e traffico) da parte di un sito nuovo.
    Tuttavia il fattore 'età del dominio', o meglio "cronistoria all'interno degli archivi di Google" non credo sia secondario anzi.
    Un established site è un sito che è in Google da un bel po' di tempo, linkato spontaneamente da diverse fonti e in maniera graduale (meno link ma di maggiore qualità), che ha visto crescere progressivamente la quantità di pagine e contenuti, che presenta [macro]argomenti di interesse generale.

    Cordialmente,
    Stuart


  • Community Manager

    Azz 🙂

    Grazie mille Stuart questa non la sapevo proprio 😄

    :ciauz:


  • Super User

    Potrei sbagliarmi, ma il 'Flag' di un sito è generalmente considerato un fattore negativo, e attiene al momento in cui un sito è ufficialmente sospettato di mettere in atto pratiche spam che meritano approfondimenti.

    The Rating Categories We make use of the following categories for evaluating our search results:

    Vital
    Useful
    Relevant
    Off Topic
    Offensive

    Erroneous
    Didn?t Load
    Foreign Language
    Unrated


  • Super User

    @LowLevel said:

    Potrei sbagliarmi, ma il 'Flag' di un sito è generalmente considerato un fattore negativo, e attiene al momento in cui un sito è ufficialmente sospettato di mettere in atto pratiche spam che meritano approfondimenti.

    The Rating Categories We make use of the following categories for evaluating our search results:

    Vital
    Useful
    Relevant
    Off Topic
    Offensive

    Erroneous
    Didn?t Load
    Foreign Language
    Unrated

    Quindi...
    è una lista di "Flag" che possono essere attribuiti ad un sito (immagino che un sito ne possa avere più di uno...), oppure è meglio parlare appunto di 'rating categories' che utilizza un mdr per catalogare un sito?

    Cordialmente,
    Stuart


  • Super User

    Ok, chi fa da sè... 😄
    Le Rating Categories sono quelle utilizzate dai "Google Search Result Quality Evaluators"
    http://www.seobook.com/archives/000915.shtml

    Sempre convinto che il 'flag' di un sito attenga maggiormente al sospetto su pratiche spam del sito stesso (almeno nel senso comune..) 😉

    Cordialmente,
    Stuart