- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Matt Cutts sui backlinks
-
...e questo mette fine ad ogni discussione sui backlink...
contano ancora ma solo quelli "certificati" da Google
-
@areone said:
[...]
Questo è quello che dice lui, ma siamo sicuri che sia poi quello che fa esattamente Google ? Nutro qualche dubbio.
-
@Marcomail said:
[...]
Bhe, hanno detto che i link ancora contano ma non ti hanno detto come entrano a far parte dell'algoritmo.
Può anche darsi che stiano utilizzando una struttura ad albero con la radice composta da domini che Google giudica come "vip" (anzi VIL=Very Important Link ... ). A seguire sui vari livelli dell'albero ci potrebbero essere i domini linkati dai domini principali e con un peso inferiore.
Se fosse così come penso i link conterebbero tutti ma con peso notevolmente diverso. Google potrebbe, ad esempio, assegnare un peso pari a 0 a link che provengono da domini "spazzatura". In questo modo se un tuo dominio viene linkato da uno di questi domini apposta da un tuo concorrente tu non ne saresti penalizzato e non ne ricaveresti nessun vantaggio.
-
Che qualcosa fosse cambiato nella "politica" dei backlink ne avevamo il sospetto : ho impressione che se Google ritiene un sito di "qualità" lo siano altrettanto i link che dirige verso gli altri.
Ma mentre questo si sapeva già ( nel senso che backlink provenienti da siti con elevato trust generano altrettanta qualità nei link ) , almeno in parte, io credo che Cutts abbia voluto far intendere che esiste una lista , abbastanza ristretta a questo punto, di siti a valore aggiunto "indipendentemente" anche dalla qualità , che ricevono il "bollino" di G. in concorrenza con altre "valutazioni".
Insomma qualcosa su cui studiare perdendo qualche ora di sonno .
Una cosa è certa : se prima eravamo alla spietata ricerca di "link popularity" cercando unicamente siti "dofollow" e contando sul "in fondo tutto fa brodo" , ora dobbiamo arrenderci all'idea che potrebbe essere "lavoro inutile".Pareri?
-
Il fatto che i link non abbiano tutti lo stesso valore è stato quasi dato per scontato negli ultimi anni, sia alla luce di osservazioni sui benefici portati sia svolgendo test specifici.
Da anni i SEO comprendono che un link in un footer ha un valore diverso rispetto a quello presente in un contesto di utilità maggiore per l'utente; allo stesso modo c'è consapevolezza che i link venduti perdono valore nel momento in cui il motore comprende la natura "commerciale" che sta dietro alla loro creazione. Non penso che Cutts abbia rivelato niente che già non sia stato osservato.
Un buon sistema di valutazione dei link dovrebbe però basarsi su analisi link-per-link e non generiche. Le ragioni sono almeno due:
- Un sistema fondato principalmente sulla qualità generale di un sito non sarebbe in grado di gestire i tanti casi in cui link di qualità vengono creati su siti non autorevoli oppure in cui link di bassa qualità vengono creati su siti autorevoli;
- I sistemi che si basano su whitelist di siti sono quasi sempre degli accrocchi orrendi e poco scalabili, per tale ragione vengono evitati come la peste. Ci sono casi in cui vengono usati, ma si tratta di eccezioni e ripieghi ai quali si accorre quando non è possibile fare di meglio.
Quanto scritto sopra non significa che nel determinare la bontà di un link il motore non tenga conto anche della qualità della risorsa in cui il link risiede, anzi è più probabile proprio il contrario. Però significa che non è sufficiente che un sito sia classificato come "buono" per rendere automaticamente buoni anche tutti i link che ospita.
-
Oltre a quanto dice l'ottimo Enrico aggiungerei un elemento che stavamo indagando con Deborahdc qualche giorno fa segnalo utili le considerazioni fatte qui: http://www.webpronews.com/google-pubcon-q-a-matt-cutts-amit-singhal-2011-11
-
@LowLevel said:
Il fatto che i link non abbiano tutti lo stesso valore è stato quasi dato per scontato negli ultimi anni, sia alla luce di osservazioni sui benefici portati sia svolgendo test specifici.
E' vero.
Inoltre questa storia iniziò parecchi anni fa con l'algoritmo del motore di ricerca verticale dedicato ai blog di Google.
Parliamo forse di 5 o 6 anni fa, quando Google, per stabilire la popolarità di un blog, prendeva in esame le citazioni che si creavano tra i vari blog che lui aveva archiviato. La particolarità è che estraeva i link togliendo il footer, l'header e soprattutto le varie sidebar (tra cui il famoso blogroll).
In pratica prendeva solo il contenuto degli articoli/pagine.
Ma questo era solamente uno dei tanti fattori.
Vorrei però rimarcare quanto detto da Enrico perchè concordo al 100%:
"Un buon sistema di valutazione dei link dovrebbe però basarsi su analisi link-per-link e non generiche"
-
@mister.jinx said:
Oltre a quanto dice l'ottimo Enrico aggiungerei un elemento che stavamo indagando con Deborahdc qualche giorno fa segnalo utili le considerazioni fatte qui: http://www.webpronews.com/google-pubcon-q-a-matt-cutts-amit-singhal-2011-11
Ottimo Fra
-
Concordo con Enrico, nulla di nuovo sotto il sole direi:
Se un link è farlocco, se va bene viene ignorato, se va male viene flaggato come potenziale link spam, se va "grassa" Google non pensa sia farlocco e lo conta...
Sul come capire se un link è farlocco o meno (per Google) si apre un vaso di pandora: trust del sito che linka, trust di quella sezione, posizione del link, etc. etc. etc. + ovviamente la visione d'insieme (metodi/tempi/modalità di acquisizione di link del sito puntato, etc.).
Peraltro (inizio pippone auto-promozionale ) allo scorso convegno avevo parlato appunto di questo secondo aspetto, mentre a quello prossimo venturo parlerò del primo (fattori che determinano il valore di un singolo link).
-
@MatteoMonari said:
Sul come capire se un link è farlocco o meno (per Google) si apre un vaso di pandora: trust del sito che linka, trust di quella sezione, posizione del link, etc. etc. etc. + ovviamente la visione d'insieme (metodi/tempi/modalità di acquisizione di link del sito puntato, etc.).
Aggiungo: autorevolezza di chi scrive un post rispetto al sito dove viene postata la risorsa. Google+ va in questa direzione e serve anche a questo.
-
azz' nun dir ste cose che poi mi bruci tutta la presentazione per Riccione e la devo rifare
Scherzo ovvio, comunque si, anche li il rel author, Panda e chi più neha più ne metta han cambiato un po' le carte..
-
Queste affermazioni del guru di Google servono soltanto a buttare ennesimo fumo negli occhi, Cutts ormai continua a dire tutto senza dire nulla ed è molto irritante, per usare un eufemismo.
Secondo me comunque un criterio per stabilire la qualità di un link non può prescindere dalla valutazione del focus, del contesto della pagina che lo da' (e che lo riceve, ovviamente). Un backlink da una directory è diverso da quello che proviene da un commento di un blog, e questo ultimo tipo di link è quello che mi pare più interessante al giorno d'oggi (anche se non aiutasse il ranking, porta qualche visita a tema)