- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Caffeine : qualcuno ha "investito" in velocità e notato miglioramenti?
-
Caffeine : qualcuno ha "investito" in velocità e notato miglioramenti?
Come da oggetto.
Intorno ad Aprile , quando Google ha lanciato la campagna di stampa per Caffeine , la velocità di caricamento di un sito pareva era sulla bocca di tutti.
A suo tempo avevo già iniziato ad ottimizzare la struttura delle pagine , ora devo decidere se spendere diverse centinaia di euro in più per un VPS di prestazioni superiori a quello attuale .. e vorrei qualche parere di chi ha provato.
-
Ho alcuni siti molto leggeri e veloci che effettivamente si posizionano un pochino meglio di altri, ma non molto è solo un impressione forse.
Sicuramente invece la lentezza di un paio di siti che gestisco (vecchi e ci tengo a precisare fatti da altri hehehe) fa sicuramente da freno nelle posizione raggiunte, pur avendo contenuti interessanti e ben linkati con alti PR stentano a decollare....
Quindi in sintesi non è molto importante essere leggeri.
È importante non essere pesanti!Almeno credo!
Ciao e sentiamo i veri esperti cosa ci dicono.
-
La mia esperienza personale mi fa dire che non c'è nessuna utilità pratica.
Osservando i grafici delle statistiche in confronto con quello dell'anno precedente, non si nota nessuna tendenza o varianza significativa.
Quindi direi che varrebbe la pena investire gli stessi soldi in pubblicità :o.
Vediamo se altri condividono la loro esperienza.
-
Anch'io ho lo stesso dilemma ma per sapere se stiamo parlando della stessa cosa sarebbe utile sapere di che tempi di risposta parliamo.
Ricordo che circa un anno fa si era parlato di una soglia di 1500 ms oltre la quale potevano esserci dei peggioramenti, altri parlavano invece di una soglia massima di 600 ms (intesa come velocità di scansione in risposta al robot, che non coincide necessariamente con la velocita di caricamento nel browser).
All'epoca avevo ottimizzato il Vps portando i tempi da circa 1200 ms a circa 500 ms e qualche miglioramento mi sembrava di averlo notato.Adesso, con le visite che aumentano e le prestazioni che calano, i tempi stanno tornando a crescere oltre i 1000 ms e mi sto chiedendo anch'io se il Vps stia diventando stretto e se valga la pena di provare un server dedicato magari per un mese e vedere cosa succede.
Sempre parlando di tempi di scansione, perchè se si guarda ai tempi di caricamento il collo di bottiglia sembra essere proprio nei server che forniscono pubblicità e analisi statistiche, almeno per i miei siti, per cui anche un server ultraveloce con tempo di risposta zero non cambierebbe poi molto.
-
Io penso che qui si stanno mischiando due cose...
La caffeina se l'è presa google...è google che grazie a caffeine riesce a indicizzare molte più pagine rispetto a prima. E la cosa può interessarci sotto l'aspetto della real time search...
Un altro discorso è il tempo di caricamento della pagina che sicuramente in piccola percentuale entra in gioco per il posizionamento di una pagina! Ma come dice fabio19tdi penso che basti non essere troppo pesanti!
Ciao
-
Caffeine non c'entra niente con la velocità dei nostri siti, sono due cose staccate.
La velocità incide un pò, il salto lo si nota solo se facciamo dei grandi miglioramenti nella velocità del nostro sito. Attualmente.
-
Sì, ora lo sapete, ma prima dell'uscita di Caffeine (quando non si sapeva bene cosa fosse e giravano solo le dichiarazioni di Matt Cutts) ricorderai che era partita la "corsa alla velocità".
Io comunque noto una certa lentezza nello scansionare le nuove pagine su un mio sito piuttosto lento, come se Google volesse dirmi "a quella velocità posso scansionare solo questo numero di pagine al giorno", qualcuno ha avuto la stessa sensazione?
-
La corsa alla velocità è partita per varie dichiarazioni di Google, ma non c'entravano niente con Caffeine. Sono state fin dall'inizio cose separate.
Il numero di pagine da scansionare può essere anche influenzato dal Pagerank o dall'ip (se ci sono molti siti sullo stesso ip c'è il rischio che Google non possa indicizzare tutti i documenti, perchè per ogni ip ha un numero limitato di query).
-
Secondo me è importante per chi ha siti con tante pagine, tipo 1000-3000, aver 16k di dati inutili
tipo css non minificati: su mille pagine significa 15 gb di roba in più per gli spider da scaricare e analizzare.
Tipo una testata giornalistica online come Ansa che ha necessità che le sue notizie vengano scandite velocemente dagli spider e più articoli freschi vengono posizionati più velocemente in testa se la pagina è veloce.
Per siti da 100 pagine non penso che ci sia tanto miglioramento, io lo fatto per un sito da 50 pagine i miglioramenti li ho visti: sono salito di una decina di posizioni in una settimana ma per il semplice motivo che prima Google riusciva a indicizzare poche pagine al giorno ero sempre fermo a 20 sulle 50 poi in una settimana sono arrivato di botto a 40 penso sia per quello.
Penso che Google faccia questa campagna per alleggerire il carico di lavoro dei suoi server e degli spider.
Ma una volta che la pagina è indicizzata penso che non sia un fattore rilevante o praticamente inutile.
-
A oggi, la maggior velocità di caricamento è importante soprattutto per il visitatore più che per gli spider!
Comunque credo che venga considerata per il ranking e che in futuro sarà un elemento fondamentale sotto questo aspetto.
-
Penso che fare un sito che si carica velocemente e che non sia eccessivamente pesante sia un bene soprattutto per i visitatori che ci arrivano su un sito e per questo sono d'accordo con lazzo85 quando dice che (potrebbe) diventare un parametro importante in futuro, ad oggi penso che miglioramenti significativi si abbiano solo con un drastico (e non minimo) calo nel tempo di caricamento delle pagine.
-
@gianrudi said:
Anch'io ho lo stesso dilemma ma per sapere se stiamo parlando della stessa cosa sarebbe utile sapere di che tempi di risposta parliamo.
Ricordo che circa un anno fa si era parlato di una soglia di 1500 ms oltre la quale potevano esserci dei peggioramenti, altri parlavano invece di una soglia massima di 600 ms (intesa come velocità di scansione in risposta al robot, che non coincide necessariamente con la velocita di caricamento nel browser).
All'epoca avevo ottimizzato il Vps portando i tempi da circa 1200 ms a circa 500 ms e qualche miglioramento mi sembrava di averlo notato.Adesso, con le visite che aumentano e le prestazioni che calano, i tempi stanno tornando a crescere oltre i 1000 ms e mi sto chiedendo anch'io se il Vps stia diventando stretto e se valga la pena di provare un server dedicato magari per un mese e vedere cosa succede.
Sempre parlando di tempi di scansione, perchè se si guarda ai tempi di caricamento il collo di bottiglia sembra essere proprio nei server che forniscono pubblicità e analisi statistiche, almeno per i miei siti, per cui anche un server ultraveloce con tempo di risposta zero non cambierebbe poi molto.
Quoto perché è assolutamente vero che il vero collo di bottiglia sono gli script che ti forniscono, ad esempio, per la pubblicità puttosto che per un pugin.Comunque sia attualmente credo che la velicità di caricamento di una pagina sia solo uno dei tanti fattori che determinano il posizionamento nelle serp e, probabilmente, nemmeno il più importante.
-
@Giorgiotave said:
ogni ip ha un numero limitato di query
Ciao cosa significa che ogni IP ha un numero limitato di query ? Da cosa si può valutare il numero di query assegnato ad un determinato IP ?
-
@seven said:
Ciao cosa significa che ogni IP ha un numero limitato di query ?
Che per ogni IP Google non passa le x richieste. Dove x è un numero che non conosco ed è un'informazione del 2006...infatti...leggi giù:
@seven said:
Da cosa si può valutare il numero di query assegnato ad un determinato IP ?
Questo non lo so, ma oggi con gli strumenti per webmaster di Google possiamo aumentare o diminuire le azioni dello spider oltre che a monitorarle.
-
@Giorgiotave said:
.... ma oggi con gli strumenti per webmaster di Google possiamo aumentare o diminuire le azioni dello spider oltre che a monitorarle.
Eppure io non so per quale motivo non riesco a far scansionare a Google un numero alto di pagine. Ho migliorato la velocità del server, ma di molto, infatti il tool di Google me lo dimostra, ma al posto di trovare giovamenti ho solo avuto perdite di pagine indicizzate, e posizionamenti consolidati da tempo scendere drasticamente. Si che buona parte del mio sito è da tempo in penalizzazione per diversi motivi, ma appena vedo una piccola ripresa, rivedo il mio sito affondare nuovamente e prerdere ogni speranza.
Mi sa che abbondonerò questo progetto/sito, anche se mi è costato tanto lavoro per partire con uno nuovo, chissà se non è dovuto al fatto che per troppo tempo sono stato penalizzato e i cambiamenti ora mai non me li considera più.
Comunque e la prima volta che mi accade una cosa simile.
-
@seven said:
Si che buona parte del mio sito è da tempo in penalizzazione per diversi motivi, ma appena vedo una piccola ripresa, rivedo il mio sito affondare nuovamente e prerdere ogni speranza.
Mi sa che abbondonerò questo progetto/sito, anche se mi è costato tanto lavoro per partire con uno nuovo, chissà se non è dovuto al fatto che per troppo tempo sono stato penalizzato e i cambiamenti ora mai non me li considera più.Questo potrebbe essere un motivo.
Comunque la spiderizzazione dipende molto dalla popolarità del tuo sito, quindi devi andare giù di backlink di qualità.
-
@Giorgiotave said:
[...]
Già la problematica della spiderizzazione è proprio un discorso di backlink, che però nel mio settore è un po' difficile averli.
Ho già provato in diversi.
Poi sono cosciente del fatto che dovrei sistemare diverse pecche del mio sito.Grazie Giorgio.
-
@seven said:
.... chissà se non è dovuto al fatto che per troppo tempo sono stato penalizzato e i cambiamenti ora mai non me li considera più.
Comunque e la prima volta che mi accade una cosa simile.
A tale riguardo ti posto la mia testimonianza perché anch'io, nel lontano 2001, fui pesantemente penalizzato.
Quindi, per esperieza diretta, posso dirti che Google si ricorda non solo del dominio, ma anche del webmaster (tramite il whois, la toolbar, gli srumenti per webmater, le statistiche ecc...).Comunque, se hai costanza e "dimostri" a google di aver capito "la lezione" e di non ricorrere più a metodi "proibiti" per il posizionamento, una seconda possibilità te la da!
-
Ciao sughero
il fatto che io di tecniche proibite non ne ho usate.
Le cause della mia penalizzazione sono state causate dalla poca qualità del sito, dagli errori presenti nel sito dovuta alla programmazione.
Tutto questo perchè ho avuto a che fare e purtroppo tuttora ho a che fare con un programmatore che ha sempre prese le cose alla leggera.
Infatti questo è l'unico lavoro fatto con questa persona ed è il mio primo flop.
Ora che ho dato un giro di vite sto cercando di rimediare, ma non vorrei lavorare per nulla, dovuto come dici, allo storico del sito.
Mi sa che devo iniziarne uno nuovo e non intesare il dominio a meGrazie sughero
-
@seven said:
[...]
Ho capito. Ragione di più per essere ottimisti! Infondo non hai usato tecniche scorrette.Se poi ritieni opportuno non intestare a te il dominio sappi che google non usa solo il whois per sapere chi è il proprietario (o il responsabile) di un dominio, quidi agisci di conseguenza.
Tuttavia se i contenuti sono buoni, non usi tecniche scorrette e, con il tempo, ti crei una discreta link popularity vedrai che, prima o poi, i risultati arriveranno.
In bocca al lupo!