- Home
- Categorie
- Digital Marketing
- Google Adsense
- Cambio di hosting e guadagni adsense dimezzati
-
Intanto di nuovo grazie a tutti!
Ho provato il primo tool e i risultati ottenuti sono questi:
Size: 67.55 KB
Load Time: 1.72 seconds
Average Speed per KB: 0.03 secondsMentre dagli strumenti per i webmaster ecco il grafico:
Tempo trascorso per il download di una pagina (in millisecondi).
img207.imageshack.us/img207/986/chartr.png
Che ne dite?
-
Sei al limite: 1500 è accettabile.
Tempi inferiori sono migliori e ottimali.
-
Per mia esperienza, già a 1000 c'è una forte riduzione delle pagine scansionate.
Attenzione che nel grafico ci sono picchi di circa 3mila, anche se dovrebbero riferirsi al precedente hosting.
Se hai un sistema di caching, attivalo.
-
Già a 1000 una riduzione delle pagine scansionate?
In base alla mia esperienza ero arrivato a una stima più vicina a quella di mister.jinx, per cui consideravo i 1500 ms accettabili e i 1000 ms una sorta di soglia di sicurezza che sarebbe inutile, o comunque non significativamente utile, abbassare ancora.
Devo dire però che la questione non mi è affatto chiara e spesso mi chiedo se non varrebbe la pena di sforzarmi di scendere ancora, cosa che comunque avrebbe un costo.Attualmente sul mio sito più trafficato trovo questi valori:
[CENTER] Tempo trascorso per il download di una pagina (in millisecondi)
Alto*** 1.439****** Medio 869 Basso 332***
[LEFT]
Di solito li ho sempre considerati tempi validi, però adesso mi viene il dubbio che abbassandoli ancora forse potrei migliorare la frequenza di scansione, anche se a dire il vero non è tanto la scansione che mi lascia spesso insoddisfatto quanto piuttosto l'indicizzazione, nel senso che il bot passa, scansiona, ma molte volte non indicizza.Sarebbe interessante conoscere in dettaglio anche altre esperienze da poter confrontare.
[/LEFT]
[/CENTER]
-
Ne ha parlato Cesarino Morellato al Symposium GT di Roma.
1500 è il tempo "limite".
-
Per quanto mi riguarda, quando raggiungo i 1000ms, le pagine scansionate si riducono a circa un terzo.
La scansione ritorna ai picchi solo con valori di massimo 600ms.
Il grafico è troppo costante per trattarsi solo di un caso, tant'è che sto appunto per ottimizzare l'ottimizzabile per cercare di limitare le flessioni.
Poi, magari, esistono delle scale per tipologie di siti e quindi lo spider può "accettare" valori più alti per alcuni e meno per altri.
-
@Karapoto said:
Per mia esperienza, già a 1000 c'è una forte riduzione delle pagine scansionate.
Attenzione che nel grafico ci sono picchi di circa 3mila, anche se dovrebbero riferirsi al precedente hosting.
Se hai un sistema di caching, attivalo.
Il sito é basato su piattaforma Wordpress, quindi utilizzando un plugin per il caching delle pagine dovrei ridurre i tempi, no?
-
Assolutamente si, velocizzerai l'accesso in maniera sensibile.
-
Ecco, tanto per rimanere in tema, la velocità di accesso alle pagine è aumentata ed ho quasi raddoppiato le pagine scansionate, arrivando a praticamente il download integrale del sito.
Il valore era sotto i 600ms che, a questo punto, ritengo ideale quantomeno per la mia tipologia di sito se esiste effettivamente una scala apposita.
-
Grazie Karapoto: per velocità di accesso alle pagine intendi il valore medio a lato del grafico intitolato Tempo trascorso per il download di una pagina (in millisecondi) nelle Statistiche Scansione di Webmaster Tools?
Oltre che dalla tipologia del sito, secondo me la frequenza di scansione potrebbe dipendere anche dal peso medio delle pagine scaricate, la velocità del server non corrisponde infatti semplicemente al tempo di download della pagina ma al tempo di download della pagina /peso della pagina, e avrebbe senso che il bot considerasse per esempio accettabili 1000 ms per scaricare una pagina di 200 Kb ma non accettabili per scaricarne una di 10 Kb.
Nel mio sito che citavo prima, a un tempo medio di download per pagina di 870 ms corrisponde un peso medio per pagina di 19,2 Kb (ricavato dividendo il valore medio a lato del secondo grafico Kilobyte scaricati giornalmente per il valore medio a lato del primo grafico Pagine sottoposte a scansione giornalmente), per una velocità media di download del server stimabile intorno ai 45 ms per Kilobyte (22 Kb/sec).
In ipotesi, a mio parere il bot potrebbe considerare anche il tempo di download per kilobyte, ricavabile dai valori medi delle statistiche di scansione con la semplice formula: Tempo trascorso per il download di una pagina/(Kilobyte scaricati giornalmente/Pagine sottoposte a scansione giornalmente), anzichè solo il semplice tempo di download per pagina.
-
Ciao gianrudi,
esattamente: il terzo grafico, quello con riga rossa.
Confermo che il bot di Google indica un dato medio sulla base delle scansioni precedenti. Tuttavia dal punto di vista pratico più sono leggere le tue pagine fruibili meglio è.
Ho messo qui un esperimento abbastanza recente fruibilità delle pagine web:
http://www.screencast.com/users/mister.jinx/folders/Jing/media/9ace6179-f01d-4c30-bbc3-332242516fd2E' un blog Wordpress che aveva un plugin fastidiosamente pesante. Come vedi dopo averlo disattivato c'è stato un assorbimento immediato delle pagine in corrispondenza della discesa del tempo di download.
La riga rossa l'ho messa volontariamente per far notare lo stacco :).