• User Attivo

    Per me è un fattore molto importante. Se il sito offre tanta qualità ma si carica in 10 secondi io chiudo e vado sul secondo risultato della serp. Come me fanno tanti altri, son punti di vista 😉


  • User

    Sono perfettamente d'accordo, la velocità è importante quando si parla di un certo numero di secondi, ma ciò che volevo dire è che gli hosting low cost spesso offrono comunque velocità più che sufficienti, i siti su questi hosting non sono spazzatura solo per il servizio a cui si appoggiano e semmai dalle serp dovrebbero sparire i siti lenti a causa dei fastidiosissimi pop-up o altri sistemi che appesantiscono il sito anche se su server di servizi costosi.


  • User Attivo

    Mi sono espresso male io allora. Intendevo dire la stessa cosa, odio i siti che pagano 10 euro di hosting e invece di ottimizzare queste risorse, inseriscono migliaia di popup, banner, widget, pubblicità.


  • User

    Non credo che verrà applicato molto spesso (ci sono decine di fattori che contano di più) ma lo trovo un fattore pertinente. Soprattutto un utente avanzato difficilmente aspetta più di 5-6 secondi per il caricamento di una pagina, e questo range sicuramente si ridurrà sempre di più.


  • User Attivo

    Vi state accapigliando per una cosa non corretta.
    La velocità è uno dei centinaia di fattori che determina la posizione, non l'unico. Come saprete bene tra l'altro.
    Quindi chi sta su un hosting da 3 soldi non è che sparisce ma al massimo finisce dopo un altro sito di pari livello ma con prestazioni migliori.

    Perfettamente d'accordo con Google, ovviamente.


  • Super User

    Discussione molto interessante sulla quale mi permetto di fare alcune riflessioni.

    A parte la battuta del carissimo Final Player ( che saluto ) credo che il problema della velocità di un sito sarà avvertito non immediatamente.
    E' da qualche mese che studio il problema e mi sono accorto che, ironia della sorte, quello che rallenta molti siti è ...proprio la pubblicità AdSense.
    E basta dare uno sguardo a Google Webmaster nei consigli htm forniti alla voce " Riduci al minimo le ricerche DNS " per scoprire che i maggiori problemi li creano Analytics e AdSense.
    Poi c'è l'aspetto curioso che due siti , stesso skin, stessa grafica dunque, stesso server, e praticamente gemelli a meno, ovvio, dei contenuti, vengono segnalati con due tempi completamenti diversi e uno viene ritenuto più veloce del 52 % dei siti, l'altro udite udite , più lento del 63 % dei siti.
    Senza contare che quello ritenuto più lento ha immagini salvate con una maggiore compressione e quindi più leggere.

    L'altro aspetto preoccupante è che 2 secondi pare sia il tempo medio considerato "ottimale" ...si ma il crawler da dove parte? Dagli USA? E' ovvio che se così fosse i nostri tempi saranno soggetti più alla provenienza del crawler che alle caratteristiche dei siti stessi.

    Ancora, secondo le logiche che leggo qui, se la velocità farà parte del ranking a questo punto mi aspetto un minimo di penalizzazione anche per siti blasonati. Ma sarà mai così?
    Proprio nell'ultimo mese ho fatto un po di test sulla concorrenza : ebbene una buona parte ha tempi almeno il doppio rispetto ai miei, e in molti casi anche 5 o 6 volte superiori.
    E' mio modesto pensiero che l'idea, pur giusta e condivisibile, presto sarà messa in coda.
    Mi immagino che se siti hostati da provider scadenti subiscano penalizzazioni nella serp per la velocità, mi aspetto che per lo stesso motivo i siti lenti, pur se blasonati e magari con un PR 6 o 7, trovino anche loro qualche penalizzazione.
    Ma sarà mai così?

    L'ultima considerazione è sugli hosting : conosco tantissimi bravi webmaster che fanno ottime cose ma non si possono permettere hosting di qualità superiore o server dedicati, di contro conoscenti che fanno cose orribili pur godendo di un server dedicato ottimizzato al massimo.

    Io personalmente ho dei server dedicati e , come detto prima, ho notato che siti gemelli sullo stesso server , Google li vede diversamente veloci ( o lenti ) : agli occhi esterni si potrebbe pensare ospitati da due piattaforme diverse, una di qualità e l'altra scadente, eppure, giuro, sono sullo stesso server e la banda disponibile è abbondante per entrambi.

    Ah senza considerare che lo stesso sito il giorno prima è dichiarato più veloce , due giorni dopo, più lento.

    Secondo me finirà per essere la solita leggenda metropolitana introdotta da Google per convincere milioni di piccoli webmaster a ottimizzare i propri siti che si traduce in un risparmio per G. in termini di risorse per gestire l'indicizzazione.

    A conforto di tutti ripeto : sto seguendo l'argomento ma con i parametri che intende utilizzare G. sarebbe un suicidio o quasi ...


  • Super User

    A mio avviso però, si dovrebbe partire dal pensare all'utente. Ho smesso ormai da parecchio di prendere per oro colato quello che dice G, ma effettivamente un sito l'eggero è un vantaggio anche per l'utente finale e non solo per il motore. Io utente, non navigo volentieri su un sito lento..

    A riguardo sto effettuando un test, ho ridotto i tempi di caricamento delle pagine di un mio sito del 15%..vediamo che succede.:fumato:


  • Super User

    Io, ne ho parlato tempo fa, sono perplesso quando però sono gli stessi servizi di google a rendere il sito lento.

    Mi spiego:
    Molti di noi usano analytics ed adsense, ebbene è lo stesso strumento page speed di google a segnalarli come pesanti 😄

    Guarda caso, da quando ho reso gli annunci non spiderizzabili dal crawler non specifico, le pagine sono state rilevate molto più veloci e la voce relativa agli annunci è sparita dalla segnalazione.

    Se quindi, nel suo score, google si baserà davvero sullo strumento page speed, dovrà tenere conto che i suoi strumenti possono contribuire alla lentezza di un sito.


  • User Attivo

    @Karapoto said:

    Guarda caso, da quando ho reso gli annunci non spiderizzabili dal crawler non specifico, le pagine sono state rilevate molto più veloci e la voce relativa agli annunci è sparita dalla segnalazione.

    Lo sai che non ci avevo ancora pensato? Si possono quindi inserire nel robot.txt delle stringhe per evitare la spiderizzazione di analytics e adsense. Ovviamente per quanto riguarda adsense solo al Googlebot...

    Quindi basterebbe aggiungere:
    User-agent: Googlebot
    Disallow: /*.js$

    E' corretto?


  • Super User

    Per quello dovresti chiedere nella sezione relativa.

    Io ho risolto attribuendo agli spider, attraverso delle condition, degli speciali permessi di visualizzazione del mio forum.


  • User Attivo

    Karapoto scusa ma c'è qualcosa che non mi torna.
    Sei sicuro che dopo aver reso non spiderizzabili gli annunci il WMT ha rilevato una velocità maggiore del tuo sito?
    Mi sa che è stata solo una coincidenza.

    Dico questo per due regioni:

    Innanzitutto il crawler di google non esegue i javascript e quindi di fatto non carica gli annunci che di conseguenza non vengono neanche indicizzati.
    Seconda cosa ancora più importante è che la velocità rilevata dai WMT si basa sui dati inviati dalla google toolbar e non sui dati del crawler.
    Di conseguenza sono sempre e comunque gli accessi degli utenti che determinano la velocità del tuo sito e non la velocità di scansione dello spider.