Grazie a Madri per aver confermato che questa tecnica funzionava e funziona egregiamente tuttora.
Certo che e' veramente strana questa situazione.
Mi spiego.
Ipotizziamo che questo sistema venga utilizzato proprio per un programma di affiliazione.
Ipotizziamo anche che il programma di affiliazione abbia successo, insomma che giorno dopo giorno sempre piu' wm vi aderiscano.
Ipotizziamo per esempio che dopo 6 mesi si siano iscritti 4.000 wm, wm che metteranno nei loro siti ognuno un proprio link-url verso il sito di affiliazione.
Ok, passa lo spider e legge le pagine del wm A che propongono questo link:
sitodiaffiliazione.xyz/affiliato.php?id=332230723023
Poi lo spider va sui siti del wm B e trova i link:
sitodiaffiliazione.xyz/affiliato.php?id=000430723023
Cosi' per 4000 wm...
Il motore si segna queste 4000 url lincate e si appresta a spiderizzarle.
Il motore non sa se queste 4000 pagine saranno tutte uguali, saranno simili ma presenteranno prodotti diversi, saranno tutte diverse perche' riferite a contenuti creati a mano da 4000 wm diversi che sono ospitati da sitodiaffiliazione.xyz... insomma deve capire cosa ha di fronte.
Apriamo una parentesi.
Per un motore questa: sitodiaffiliazione.xyz/affiliato.php?id=000430723023 non e' una url di una pagina dinamica, come questa : sitodiaffiliazione.xyz/affiliato/ non rappresenta una pagina statica.
Per i motori e' statico tutto cio che non e' creato-modificato via webserver.
Pertanto sitodiaffiliazione.xyz/affiliato.php?id=000430723023 potrebbe corrispondere ad una pagina statica fatta a mano mentre sitodiaffiliazione.xyz/000430723023/ ad una pagina dinamica.
In poche parole per il motore trovare 4000 link diversi tipo:
sitodiaffiliazione.xyz/affiliato.php?id=000430723023
o tipo:
sitodiaffiliazione.xyz/000430723023/
non cambia assolutamente nulla.
Ora ipotizziamo ulteriormente 3 situazioni.
Nella prima i 4000 link puntano a 4000 pagine diverse, per dire prodotti in vendita su ebay.
Nella seconda situazione i 4000 link puntano allo stesso contenuto, per dire una pagina di iscrizione di un sito per cercare l'anima gemella.
Nella terza (il nostro caso) ad una stessa url via redirect.
Nel primo caso il motore pensa... che bello ogni link (dei 4000) punta ad una pagina che offre un servizio-prodotto diverso dalle altre, spiderizzo il tutto e metto in serp, cosi' che un utente che cerca uno di quei prodotti sara' contento della mia serp.
Nel secondo caso il motore fa 2 piu' 2 e dopo i primi centinaia di link verificati pensa: ok ecco i classici link di affiliazione verso uno (o 5, 10) stesso contenuto, beh marco quei link come url con contenuto duplicato e magari li riverifico fra 6 mesi.
Nel terzo caso invece il motore pensa: ma come 4000 link che puntano verso 4000 pagine-url che poi redirigono verso una sola-identica url... ma che scherzo e' questo... se mi avessero messo nei link direttamente l'url destinatario avrei evitato 4000 controlli... ed adesso che faccio... ripasso a verificare tutti i mesi se i redirect persistono nelle 4000 url o... ?
Il motore ripassa ed i redirect sono sempre li'... i link da 4000 diversi diventano nel tempo 40.000 e crescono, crescono.
A questo punto il motore per auto-proteggere il suo rapporto di costi/resa avra' 2 sole scelte: o ignorera' tutti i link verso sitodiaffiliazione.xyz/affiliato.php? o nel piu' propabile dei casi bannera' completamente sitodiaffiliazione.xyz.
Madri, fidati, da amico e collega di forum.
O non hai ancora raggiunto un numero tale di link (con redirect) tale da incappare nella penalizzazioni dei motori, o (e a pelle mi sa che siamo in questo secondo caso) se i motori non hanno ancora ben stabilito quale sia-sara' questo limite, stai danneggiando-sfruttando-"sputtanando" G alla faccia dei suoi profondi algoritmi ed alla faccia di ogni seo benpensante.
Comunque sia, comunque vada Enrico hai (lo dico col cuore in mano) tutta la mia ammirazione, anche se il mio sogno segreto e' un mondo-web dove il robots.txt debba essere rispettato perche' l'impone la legge "reale" di ogni Stato, ed un mondo-web dove ogni tipo di redirect sia considerato piu' illegale di un sito pedofilo.
I geo redirect creeranno dei multiversi, cosa vedra' un italiano non sara' cosa vedra' un africano e meno che meno cosa spiderizzera' un motore americano.
I contenuti si differenzieranno per nazione, per lingua, per browser, per potere economico (se hai un monitor 800*600 mi sa che non ti proporro' un diamante... al massimo bigiotteria) etc etc.
Finche' il content negotiation sara' lecito nevigheremo su web paralleli.
Lo spider di adsense continuera' a spiderizzare la pagina dog.html piena di contenuto sui cani proponendo perfetti annunci in tema.
Peccato che agli italiani che accedono a dog.html invece saranno presentati unicamente gli annunci Adsense sui cani, in lingua italiana... ma nessun testo scritto dal wm e nessun altro link (nella pagina dog.html) oltre i link degli annunci Adsense.
Cosi' al posto del classico 3% di click il wm avra' il 15%... ma per G tutto regolare perche' per lui cloaking e': "Showing different content to users than you show to Search Engines'"
Cose assurde, incredibili, in confronto i link di Enrico appaino opere di bene.
Provate a comprarvi 1000 domini nuovi di pacca.
Mettete in ogni dominio la stessa homepage.
Non licateli, non fate nulla, dimenticateli.
Forse dopo un mese la home di 1 dei 1000 apparira' nella serp di G.
Provate a comprarvi 1000 domini nuovi di pacca.
Ora parcheggiateli tutti su Sedo.
Tempo pochi giorni ed i vostri 1000 domini appariranno nelle serp di G, anche se tutti con lo stesso identico contenuto.
Ci son ricascato, ho "sfruttato" una discussione bella come questa per le mie solite filippiche, chiedo venia, e' che se non mi capite voi colleghi a chi mai potrei rivolgermi?