• Community Manager

    Le regole SEO ed i Trucchi

    Ancora oggi leggo in giro che ci voglio i trucchi, quelli che poi noi per prenderli in giro chiamiamo trukki, con la k che fa fiko.

    Vi invito a leggere questo post di Enrico: Google non sa perché un sito ranka.

    Sul forum gt, mi vorrei soffermare con voi su questa parte di quel post:

    Pensare all?algoritmo del motore di ricerca come se fosse un elenco di regole simili a quelle elencate è ?pericoloso?. E? pericoloso perché è fuorviante e crea nella testa del SEO alcune convinzioni:

    • lascia credere che vi sia un elenco di fattori valevole ed utile per ogni sito
    • lascia credere che vi siano regole rigide, che fanno riferimento a specifici fattori o riferimento a specifici calcoli
    • lascia credere che i progettisti determinino da sé valori-soglia o quanto sia importante un elemento piuttosto che un altro (o addirittura si crede che tali valori e importanze valgano per qualsiasi sito)

    Si tratta di convinzioni errate? A volte sì e combaciano sempre meno con la realtà dei motori di ricerca, via via che il tempo passa e che le metodologie di valutazione dei siti si fanno più sofisticate.

    Ne parliamo?
    :ciauz:


  • Moderatore

    Penso che il post di Enrico sia molto attuale; non soltanto perché apre gli occhi a tutti quelli che pensano la seo come un insieme di regole trascurandone la natura olistica, ma anche perché fotografa una rivoluzione negli algoritmi di Google.

    Probabilmente il motore di ricerca ha utilizzato il machine learning nel posizionamento organico prima di Panda, ma è con questo aggiornamento che lo ha presentato ai webmaster. Ripenso alle frasi di Matt Cutts nella prima intervista su Panda rilasciata a Wired:

    And we actually came up with a classifier to say, okay, IRS or Wikipedia or New York Times is over on this side, and the low-quality sites are over on this side. And you can really see mathematical reasons ?Il classificatore agisce dividendo i siti autorevoli da quelli con bassa qualità: come? Non è così scontata la risposta, ma nella separazione vi sono motivazioni matematiche.

    Semplificando oltre il lecito; prima l?ingegnere pensava ad un algoritmo partendo da fattori che immaginava essere rilevanti, ora il programma configura automaticamente i suoi parametri...mentre l'ingegnere non sa come mai il sistema si sia settato in una certa maniera e può solo constatare il funzionamento del classificatore in maniera statistica.

    Il problema è noto ed un ex membro del Search Quality Team di Google lo spiega rispondendo ad una domanda su Quora. Traduco alcuni passaggi:

    ?In un sistema ad apprendimento automatico, è difficile spiegare e capire perché un particolare risultato di ricerca si posizioni più in alto di un altro per una data query. La comprensibilità di una certa decisione può essere abbastanza bassa; la maggior parte degli algoritmi ad apprendimento automatico tendono ad essere dei black box che nel migliore dei casi mostrano pesi e modelli che disegnano soltanto un quadro grossolano di come mai una decisione è stata presa.?

    E ancora:
    ?Anche nel caso in cui qualcuno riuscisse ad identificare i segnali che fanno si che un risultato sia stato posizionato più in alto di un altro, è difficile modificare direttamente un sistema basato sull?apprendimento automatico per aumentare l?importanza di certi segnali su altri in contesti isolati.?

    Si rinnova Google, e deve rinnovarsi chi tra di noi non lo ha ancora fatto.
    Cerco di andare al nocciolo della questione: credo che le conseguenze di questo cambio di prospettiva saranno notevoli sia nel nostro approccio alla seo che nelle tecniche utilizzate. Presto o tardi anche gli ultimi sostenitori dei trukki del posizionamento saranno costretti a cambiare il loro obiettivo dall'assecondare l'algoritmo di Google all'accontentare lutente finale.