@aledandrea ha detto in Black Hat affiliate utilizzando Amazon S3:
Resta vera, a mio avviso, la parte dedicata alla pianificazione. Qui si parla di spam, mentre se devi valutare attività pluriennali, le cose vanno in maniera differente.
Questo sicuramente lo possiamo scolpire nella pietra.
Però anche studiare le cose Black Hat è interessante! Capire come sono riusciti a bucare Google permette anche a chi fa le cose per bene di farle meglio.
È che non sapendo come chiamarlo, se non Domain Rank ma vorrei evitare di usare quel termine o cose affini, mi ero tenuto su PageRank. Tipo, che so, Domain PageRank .
Comunque, al di fuori di strafalcioni miei, c'è un punto che invece riguarda la forza del dominio che è interessante.
Ipotesi (pura ipotesi): In assenza di tempo per essere valutato, il materiale viene posizionato sulla base di fattori "pre-consolidati" come "l'affidabilità" del dominio, pesata sulle pubblicazioni precedenti, e sulla forza del dominio derivata dai link.
Allora, sicuramente c'è una fiducia cieca attribuita al dominio da parte di Google, dovuta alla sua "reputazione". Reputazione che, nel caso di una CDN come s3.amazonaws.com non è legata in alcun modo alle ricerche di brand o ad altri segnali utente, ma solo e solamente dai link.
Perché questo è quello che fa una CDN: ospita roba allo scopo di linkarla a destra e a manca.
E' una pezza d'appoggio senza alcuna "identità" riconosciuta.
Ipotesi mia: il fatto di averci creato un "sito" sopra (non semplicemente un paio di paginette, ma migliaia), ha indotto Google a "pensare" che effettivamente quello fosse un sito fatto e finito e l'ha iniziato a riconoscere come "entità" (cosa che normalmente fa con i brand).
Ed è questo passaggio da semplice "sito" a "entità" semantica che gli ha fatto "saltare la fila" ed ha permesso l'exploit.
E questo mi ha fatto pensare ad un vecchio aggiornamento che fecero nel 2009, che sembrava in qualche modo "avvantaggiare" i grossi brand.
Ho la netta sensazione che questa cosa sia correlata.