La linea guida ufficiale prevede l'utilizzo del** robots.txt o del meta tag noindex** nelle pagine "duplicate".
Quando si tratta di Landing Page per PPC è una scelta logica che non introduce grossi problemi. Per il traffico organico, la cosa è leggermente diversa.
Se hai più pagine che rispondono a differenti URL, il rischio è che differenti utenti le "linkino" splittando il page rank sulle varie pagine. Se poi solo una di queste non è noindex, rischi di perdere parte del ranking a causa del test.
Un soluzione un po' black hat è di utilizzare uno script di cloacking basato su user agent od IP. In questo modo le varie landing page rispondono tutte allo stesso URL, i motori di ricerca vedono sempre la stessa pagina (es. quella di controllo) mentre agli utenti vengono proposte a rotazione le pagine da sottoporre a test.
La seconda soluzione, peggiore dal punto di vista dell?usabilità e dell?affidabilità dei risultati, è l?utilizzo di uno script Ajax. In pratica la pagina viene aggiornata con i contenuti delle varie landing page sul client invece che sul server, evitando la necessità di usare **lo script di cloacking.
**Tutto questo IMHO ovviamente.