- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Bloccare Javascript con Robot.txt
-
Bloccare Javascript con Robot.txt
Da una idea di Karapoto di bloccare allo spider di Google la spiderizzazione degli annunci adsense e di analytics (il tutto dovrebbe dare risultati migliori come velocizzazione di pagina per Google)... avrei individuato queste due stringe da inserire nel robot.txt:
User-agent: Googlebot
Disallow: /*.js$Vanno bene? Dovrebbero bloccare la scansione di tutti i link in javascript. Giusto?
-
Scusa 444523, ma la velocità del sito google la rileva tramite la google toolbar, non tramite l'accesso dello spider.
Se non ho capito male il tuo intento è non fare caricare asdense quando accede Google per fargli credere che il caricamento è più veloce?
-
Invece di bloccare l'accesso degli spider ai javascript che secondo me non serve a nulla, forse potresti usare un tool di compressione per ridurne (a volte notevolmente) il peso.
-
@Swalke said:
Se non ho capito male il tuo intento è non fare caricare asdense quando accede Google per fargli credere che il caricamento è più veloce?
Ciao Swalke... mi riferivo a questo intervento di Karapoto alcuni giorni fa:
@Karapoto said:
Molti di noi usano analytics ed adsense, ebbene è lo stesso strumento page speed di google a segnalarli come pesanti
Guarda caso, da quando ho reso gli annunci non spiderizzabili dal crawler non specifico, le pagine sono state rilevate molto più veloci e la voce relativa agli annunci è sparita dalla segnalazione.
Se quindi, nel suo score, google si baserà davvero sullo strumento page speed, dovrà tenere conto che i suoi strumenti possono contribuire alla lentezza di un sito.
-
Ciao 444523,
col il file robots puoi impedire l'indicizzazione solo dei file sul tuo dominio, per cui quelli esterni non farebbe riferimento al tuo file robots in ogni caso.
-
Quello che dice Thedarkita è vero e aggiungo questo:
il fatto che gli script di adsense, analitics, facebook ecc rallentino il sito è vero.
Quello che invece prenderei con le pinze è che non rendendo spiderizzabile adsense aumenti la velocità rilevata dagli strumenti per i webmaster.In primo luogo la velocità misurata da webmaster tools si basa sui dati inviati dalla google toolbar e non sui dati del crawler (vedi qui:http://www.google.com/support/webmasters/bin/answer.py?answer=158541&hl=it)
In secondo luogo gli spider non eseguono il codice javascript di conseguenza gli annunci adsense non sono indicizzati già di loro.
In ogni caso la questione di fondo è che comunque i dati sulla velocità li forniscono gli utenti con la loro Google toolbar quindi velocizzando l'accesso dello spider non dovresti vedere aumentare la velocità del tuo sito all'interno dei webmaster tool.
-
@Thedarkita said:
Ciao 444523,
col il file robots puoi impedire l'indicizzazione solo dei file sul tuo dominio, per cui quelli esterni non farebbe riferimento al tuo file robots in ogni caso.Hai ragione... ma che tonto che sono.
-
@Swalke said:
Scusa 444523, ma la velocità del sito google la rileva tramite la google toolbar, non tramite l'accesso dello spider.
Anche questa cosa... non la sapevo.
Pensavo fosse un "bilanciamento" tra i vari spider... questo aspetto mi è del tutto nuovo...
Poiché ho un sito, il maggiore, in puro html ed è molto rapido nella risposta, mi sembrava davvero strano che fosse "penalizzato" nella velocità. I valori riportati sul webmaster tool sono "falsati"... credevo fosse un problema degli spider...
Ok.