- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata
-
@kal ma ha ammesso che i documenti sono reali e non fake?
1 Risposta -
Una cosa molto interessante che ho letto riguarda la link building.
In pratica Google dà un peso ai backlink anche sul numero di click che quel link riceve nel tempo.
In pratica fare solo link building fine a se stessa serve a ben poco.
-
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
@kal ma ha ammesso che i documenti sono reali e non fake?
Sì, anche se pure su questo c'erano pochi dubbi in merito. Un fake COSÌ complesso e coerente non è semplicemente possibile.
Certo è buono avere una conferma ufficiale, aiuta a chiarire il campo da complottismi e dubbi.
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
In pratica Google dà un peso ai backlink anche sul numero di click che quel link riceve nel tempo.
In pratica fare solo link building fine a se stessa serve a ben poco.Riesci a mettere il riferimento a questa cosa? Perché i clic sui link non sono sicuro su come possano essere monitorati lato Google. E ho letto cose differenti, personalmente... anche se potrei aver capito male.
Di certo c'è questa cosa dei "tiers" che come dicevo sopra è importante e merita un approfondimento.
Ovvero che ci sono diversi livelli dell'indice a seconda di quanto sono importanti e aggiornati i documenti.
E un link presente in un un tier di alto livello (es. l'homepage di un quotidiano) vale molto di più di un link presente in un tier di basso livello (es. un pdf di documentazione tecnica vecchio di 10 anni)
Ma questa cosa è SOPRATTUTTO una cosa computazionale, che ha a che vedere con le performance di aggiornamento dei documenti e del calcolo del pagerank all'interno del grafo di link mappato da Google.
1 Risposta -
@kal Certo potrebbe anche essere che abbia capito male.
fonte: link text
Ti copio lo stralcio dell'articolo tradotto in italiano
N. 5: Google utilizza i dati sui clic per determinare come ponderare i collegamenti nelle serp (quindi di fatto come pesa la link building)
Questo è affascinante e proviene direttamente dalla fonte anonima che per prima ha condiviso la fuga di notizie. Nelle loro parole: “Google ha tre categorie/livelli per classificare i propri indici di link (bassa, media, alta qualità). I dati sui clic vengono utilizzati per determinare a quale livello di indice del grafico di collegamento appartiene un documento. Vedi SourceType qui e TotalClicks qui ." In sintesi:Se Forbes . com / Cats / non ha clic, entra nell'indice di bassa qualità e il collegamento viene ignorato
Se Forbes . com / Cani / ha un volume elevato di clic da dispositivi verificabili (tutti i dati relativi a Chrome discussi in precedenza), entra nell'indice di alta qualità e il collegamento trasmette segnali di posizionamento
Una volta che il collegamento diventa “attendibile” perché appartiene a un indice di livello superiore, può far fluire PageRank e ancorarsi o essere filtrato/retrocesso dai sistemi di spam dei collegamenti. I collegamenti provenienti da un indice di collegamento di bassa qualità non danneggeranno il posizionamento di un sito; vengono semplicemente ignorati .
1 Risposta -
@kal secondo me il flag piccoli siti personali spinge il crawler a visitarlo tipo una volta all'anno indipendentemente da ciò che trova in sitemap
-
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
@kal Certo potrebbe anche essere che abbia capito male.
Sì, l'hai interpretato nel senso opposto
Ad essere pesati non sono i link bensì I DOCUMENTI CHE OSPITANO i link.
Ovviamente questo ha un impatto sul calcolo del Pagerank, come scrivevo sopra.
@marcoilardi ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
@kal secondo me il flag piccoli siti personali spinge il crawler a visitarlo tipo una volta all'anno indipendentemente da ciò che trova in sitemap
Eh, che ci sia un effetto negativo sull'indicizzazione ce ne eravamo già accorti da mò. Google da tempo ha gettato la spugna con l'internet indipendente.
Un po' per il troppo spam e un po' per il troppo contenuto mainstream.
I piccolini si son trovati in mezzo e son finiti nel tritacarne.
Se hanno un flag comunque mi rimane la flebile speranza che possa essere usato anche al contrario, in alcuni contesti... chissà.
-
Aggiungo la mia opinione, non tanto professionale, ma quanto quella personale, perché mi sono ritrovato moltissimo nel video del ragazzo che ha scoperto il leak.
Mi occupo di web dal 2007, i siti si facevano ancora in ActionScript e non esisteva (o quasi) la SEO. Non penso di essere un allocco… eppure mi sono sentito esattamente come il ragazzo del video. Ho partecipato anche io agli incontri con Mueller (office hours) e mi sono fermato con lui a discutere anche dopo che veniva fermata la registrazione. Ho sempre apprezzato la pazienza e la calma con cui Mueller cercava di dare suggerimenti, e il suo impegno sembrava onesto e sincero. Proprio per questo mi sono sentito tradito, imbrogliato e poi, subito dopo, mi sono sentito stupido per aver creduto così facilmente a quello che diceva lui e tutti gli altri di Google. Sicuramente è stata una mia mancanza, e certo non si può incolpare Mueller per aver detto cose di cui, probabilmente, non sapeva abbastanza. Potrebbero anche averlo fatto in maniera conscia, per nascondere informazioni e tediare la comunità SEO su argomenti non rilevanti, ma la mia impressione è che le frasi di Mueller non fossero dissimili da quanto potrebbe dire/generare una AI (concetti generici, frasi improbabili e tante allucinazioni). A dimostrazione della incapacità di Mueller c’è anche la storia recente dei suoi Office Hours: sono stati chiusi! Hanno provato a fare qualche podcast, in cui spesso e volentieri, Sullivan passava il tempo a blastare Mueller, dicendogli che non ne capiva niente, ma anche questi podcast sono stati interrotti/ridotti poco tempo dopo.
Sappiamo tutti che Google è una grande azienda che persegue i suoi (malefici?) obiettivi, per cui non c’è da stupirsi se cercano di fare i loro interessi… credo invece che siamo noi a dover avere la voglia di creare un Web che sia accessibile, paritario, che premi il merito e l’impegno di ognuno, senza dover subire i ricatti di un monopolista che modifica i suoi strumenti per mantenere una posizione dominate.
Concludo con un pensiero personale: quando qualcosa non va secondo le nostre aspettative è normale arrabbiarsi e sentirsi delusi, ma il sentimento successivo è quello di ripartire più forti di prima, anche se ci sentiamo come Davide contro Golia, anche se le nostre armi sono spuntate e la lotta sembra impari… a volte, dalle necessità dei singoli si possono ottenere grandi risultati che miglioreranno la vita di tutti!
1 Risposta -
@kejsirio ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
Ho sempre apprezzato la pazienza e la calma con cui Mueller cercava di dare suggerimenti, e il suo impegno sembrava onesto e sincero. Proprio per questo mi sono sentito tradito, imbrogliato e poi, subito dopo, mi sono sentito stupido per aver creduto così facilmente a quello che diceva lui e tutti gli altri di Google. Sicuramente è stata una mia mancanza, e certo non si può incolpare Mueller per aver detto cose di cui, probabilmente, non sapeva abbastanza.
Anche a me Mueller è sempre sembrato sincero. La mia impressione è che lui per alcuni argomenti ripetesse fondamentalmente cose che gli erano state dette.
Se alla formazione interna ti dicono "se ti chiedono così, rispondi cosà" non è che si possa molto farci il giro eh. Ne va del tuo lavoro. Se hai un rimorso di coscienza ti dimetti e lasci ad altri fare quel che l'azienda dice che va fatto.
Inoltre, quello trapelato è un documento tecnico. E sicuramente Mueller o Sullyvan non avevano accesso a questo tipo di informazioni: il loro lavoro era una cosa differente.
Anche se personalmente non ho mai preso per oro colato quello che dicevano. Alcune cose erano veramente palesi essere false: i dati dei clic che infatti vengono utilizzati, l'utilizzo della telemetria di Chrome...
Umanamente sono dispiaciuto per le cose che sono saltate fuori, ma la colpa è al 100% in capo a Google stessa. La trasparenza sarebbe stata comunque la cosa migliore.
E come ha scritto King nella premessa del suo articolo: a volte un "non posso rispondere a questo" vale più di mille bugie.
-
Aggiungo un secondo articolo di follow-up sempre di Mike King su Search Engine Land:
https://searchengineland.com/how-seo-moves-forward-google-leak-442749
Raccomando a tutti una lettura attenta con il giusto tempo perché è lungo, ben argomentato e contiene molte riflessioni e ulteriori informazioni.
@giorgiotave da aggiungere come fonte alla nostra live senza dubbio.
1 Risposta -
@kal yes, metterei anche questo https://sparktoro.com/blog/11-min-video-the-google-api-leak-should-change-how-marketers-and-publishers-do-seo/
-
Mega repository con i migliori articoli/risorse sulla questione curato da Aleyda Solis:
-
Ci avrei scommesso che Dan Petrovic avesse da tempo le mani nella marmellata: https://dejanmarketing.com/i-have-one-thing-to-say/
1 Risposta -
Dovrei comprare The art of seo al WMF o lascio perdere?
-
@kal ha detto in I Segreti dell'Algoritmo: analisi di documentazione tecnica interna di Google Search trapelata:
Ci avrei scommesso che Dan Petrovic avesse da tempo le mani nella marmellata: https://dejanmarketing.com/i-have-one-thing-to-say/
GRAZIEEE