Osservazione corretta, WWW, molto precisa e condivisibile.
Chiedo però, di rimbalzo: non esistono metodi per avere sia l'uovo oggi che la gallina domani?
Mi spiego: in un sito/portale/pagina/forum esistono molti spazi distinti: quelli per contenuti visibili (come un intervento in un blog) e quelli per contenuti "invisibili" (tag, title, description, ancore e link assortiti).
Non si potrebbe cercare di suddividere al massimo - sempre ispirandosi a principi di ragionevole equilibrio lessicale - i tecnicismi anglofoni e le espressioni chiare in Italiano?
Creando testi di buon livello, "decorati" senza essere "infarciti" di parole straniere, si potrebbe strizzare l'occhio ai crawler che vanno alla caccia della qualità, mentre lavorando sulla mole di dati non visibili agli utenti umani si potrebbe invertire la proporzione ed attirare gli spider.
L'utente cerca la stringa di testo "gergale", viene dirottato sulla pagina grazie ad ancore e tag, ma poi atterra in un ambiente linguisticamente "user friendly" che non lo disorienta e anzi lo accompagna.
È fattibile una cosa del genere, almeno in teoria?
[Certo, immagino che il dosaggio delle parole diverrebbe un fattore essenziale (anche se penso già lo sia), onde evitare che troppo contenuto nascosto sia interpretato male e porti a penalizzazioni.]
Occorrerebbe un esempio, ma stavolta con il codice, così da vedere sia ciò che è visibile, sia ciò che è invisibile agli occhi degli utenti.