Tempo fa mi occupavo per passione degli algoritmi dei motori di ricerca.
In apparenza (e probabilmente anche in realtà) molto complessi, leggendo e studiando i brevetti che per ragioni di copyright i motori erano costretti a pubblicare, il tutto appariva molto più semplice rispetto al primo acchito (anche se l'acchito anche per il professionista del biliardo tanto semplice non è).
Dopo una decina d'anni mi convinsi (a torto o meno) che alcune realtà dei motori di ricerca avevano dell'assurdo, mi sembrava di vivere come in quei film dove il protagonista viaggia a ritroso nel tempo per poi stupirsi dei salassi come panacea di ogni male.
In breve 3 erano gli aspetti (a mio avviso) anacronistici (e per anacronistico intendo dire che avrebbero potuto modificarli-migliorarli già allora in quanto disponevano della tecnologia... ma forse non della volontà, o forse semplicemente ritenevano che i tempi non fossero maturi).
Innanzitutto l'uso di mostrare nelle serp la copia (cache) di una pagina era assolutamente illegale (http://www.yoyoformazione.it/2008/04/copia-cache-illegale.php) ma allora andare contro google era dura, anche se prima o poi anche i colossi capiscono i loro limiti e vi si adeguano.
Il secondo aspetto riguardava i "famosi" algoritmi riportati ed analizzati in questa discussione. Non entro nello specifico, ma erano assurdi allora come ora, solo che i motori ORA ne sono consapevoli (esattamente come la cache, solo che quella oggi si vede che è stata rimossa). Dovete immaginare un motore di ricerca nella sua complessità esattamente come il corpo umano. Se domandate ad un luminare cosa sia dannoso per il fisico vi rispoderà sempre con un semplice termine: non fisiologico. Fumare non è fisiologico (nella natura dell'uomo), correre 30 km al giorno non è fisiologico, mangiare 1 kg di pasta al giorno... saltare dal secondo piano piuttosto che dormire 15 ore di fila.
Non-Physiological. NOn fisilogico o se vogliamo: innaturale.
Il doping è innaturale (ovvio), il doping è "spam in quanto innaturale".
Sfruttare correttamente i circa 100 algoritmi (titolo 70-75, etc) utilizzati dai motori, non solo è molto difficile ma è controproducente in quanto innaturale (cioè spam).
Apro una parentesi. Prendiamo uno dei 100 algoritmi di sort. L'anzianità del dominio. Non conta quanto sia anziano il dominio ma quanto sia anziano rapportato ai suoi contenuti ed al suo owner. Se il dominio xyz.com con contenuto xyz del signor Pippo dopo 10 anni viene acquistato da Caio per usarlo con contenuto zyx (stesso tema ma nuovi testi) il tutto parte da capo o quasi. Chiusa parentesi.
I siti per adulti, i blog, gli e-commerce, i social netwotk, etc etc hanno pesi diversi per i vari algoritmi.
A google non importa di come ottimizzerete i vostri ecommerce, tanto con analytics vi giudicherà in tutto per tutto e se non lo usate... beh diciamo che se non avete dei brand in esclusiva la vedo dura.
Ma distribuire la parole chiavi correttamente nelle pagine, ottimizzare i link interni ed esterni, i title delle immagini, il peso delle pagine, etc etc etc etc... alla fine farà più danni che altro. NON E' FISIOLOGICO.
Quando anni fa ho capito (e l'ho negato fino all'ultimo) che in altissima percentuale contava (ora come allora) il contenuto originale ed i brand univoci, dopo tanti anni di studi tutto mi è sembrato non avere più senso e mi son ritirato (ricco e soddisfatto, pertanto non preoccupatevi per me, ahhah).
Pertanto Ramses fregatene dei vari algoritmi, tanto chi li conosce (o crede di conoscerli) quasi tutti finisce con il fare spam (volutamente-coscientemente o meno, vedasi il non fisiologico) e poi variano come detto per tipologia di argomento. Comunque siccome non mi piace apparire come il vecchio saggio rincoglionito nostalgico pronto solo a disilludere le nuove generazioni (generazioni che però vedo ragionare come 10 anni fa... ma i motori ora sono cambiati) ti dico per esempio che l'uso del <br> dentro le frasi è ancora efficace, ti permette di usare testi altrui facendoli apparire come originali (ovviamente il br tramite css non deve fare andare visivamente a capo il testo spezzato dal br stesso).
Il terzo aspetto è l'assioma che “Un’ intelligenza artificiale non potra’ mai esser certa di riconoscere se un testo e’ stato creato da un’altra intelligenza artificiale.”
Ovviamente a voi questo aspetto non interessa per la pagnotta, perchè creare del discreto testo artificiale richiede a mio avviso almeno 3-4 anni di duro lavoro. Purtroppo (o per fortuna) i motori oggi usano controlli manuali per scoprire siti artificiali, viceversa...