- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Abbassamento del pagerank e della frequenza di scansione di GoogleBot
-
Abbassamento del pagerank e della frequenza di scansione di GoogleBot
Salve,
tempo fà ho ricevuto un'email, dove mi veniva spiegato che Googlebot aveva problemi nella scansione del mio sito, in quanto trovava un numero estremamente elevato di URL. Ho risolto il problema, ed ho mandato un'email di richiesta di riconsiderazione del sito
Ora é passato più di un mese e il grafico della frequenza di scansione del GoogleBoot ha ancora valori bassi. Oltre a questo ieri mi sono accorto di un abbassamento del pagerank da 4 a 3. Cosa stà succedendo? Come intervenire?
Grazie a tutti per un'evenutale risposta.
-
Ma chi ti ha mandato la mail?
-
Ciao zpeppez,
nel webmaster tool di google, sotto la voce diagnostica, hai controllato che il tempo di scansione sia al di sotto di 1 secondo?
-
-
@pacoweb said:
Ciao zpeppez,
nel webmaster tool di google, sotto la voce diagnostica, hai controllato che il tempo di scansione sia al di sotto di 1 secondo?
Forse volevi dire i tempi di accesso ad una pagina, quelli si sono sotto 1 secondo
Ho fatto un print dell'andamento di googlebot:
img694.imageshack.us/img694/5220/chartn.pngCome si può notare é da ottobre che googlebot non scansiona le pagine come prima...
-
Ciao zpeppez,
hai postato il 1° di 3 grafici.
Ci puoi indicare qualcosa di dettagliato sul terzo quello con linea rossa?
-
Sarebbe molto utile un copia ed incolla della mail che ti é arrivata ovviamente solo il contenuto.
Grazie
-
@mister.jinx said:
Ciao zpeppez,
hai postato il 1° di 3 grafici.
Ci puoi indicare qualcosa di dettagliato sul terzo quello con linea rossa?Ecco il grafico: img696.imageshack.us/img696/4043/chart2.png
-
@biosferaa said:
Sarebbe molto utile un copia ed incolla della mail che ti é arrivata ovviamente solo il contenuto.
Grazie
Questa é parte dell'email:
"Googlebot ha riscontrato problemi durante la scansione del sito miosito.com.
Googlebot ha riscontrato un numero estremamente elevato di link sul tuo sito. Ciò può indicare la presenza di un problema relativo alla struttura del tuo sito. È possibile che Googlebot stia effettuando inutilmente la scansione di un gran numero di URL distinti che rimandano a contenuti identici o simili o di parti del tuo sito che non sono destinate alla scansione. Di conseguenza Googlebot potrebbe consumare molta più larghezza di banda del necessario o non essere in grado di indicizzare completamente tutti i contenuti del tuo sito."il numero elevato di link praticamente provenivano da uno script php (un motore di ricerca) che ho prontamente tolto ormai da mesi...
-
Mi sembra che i grafici parlino chiaro: a un incremento del tempo di risposta del server corrisponde un decremento dell'indicizzazione.
-
Quindi tu dici che sia per questo?
Ho già provato un plugin per la cache, essendo il mio sito sviluppato con wordpress, e i tempi di accessi alle pagine si erano ridotte però si venivano a creare problemi con il template in uso. Vediamo ora provo con un altro plugin simile, magari wp super cache e vediamo che succede....
-
Prova WP Super cache e WP Widget Cache anche se sono un pò sfiduciato.
Dopo aver attivato Widget Cache vai nella voce Widget e setta i minuti di attesa per la cache di ogni singolo widget.
-
Ok Jinx, intanto provo WP Super Cache per qualche giorno e vi faccio sapere;)
Grazie di tutto!
-
Ho testato il plugin per wordpress WP Super Cache per qualche giorno con risultati negativi! Tempi di scansione invariati, le pagine a volte risultavano più lente del solito e per finire il template spesso magicamente cambiava con quello standard di Wordpress Conclusione ho tolto anche questo plugin!!
Dagli Strumenti per i Webmaster di Goggle, ho notato che é possibile personalizzare la velocità di scansione, attualmente é media e se provassi ad aumentarla? Qualcuno ha qualche esperienza in merito?
-
Prontamente ho ricevuto un'email da Google, faccio un copia incolla:
"Abbiamo ricevuto da un proprietario di sito la richiesta di modificare la velocità di scansione di Googlebot per questo sito: miosito.net
Nuova velocità di scansione: Velocità personalizzata- 0.75 richieste al secondo
- 1.333 secondi per richiesta
L'implementazione della tua richiesta richiederà un paio di giorni.
La nuova velocità di scansione avrà una validità di 90 giorni.
Ti consigliamo di impostare una velocità di scansione personalizzata solo se si stanno verificando dei problemi di traffico sul server"
Comunque che senso ha una validità di 90 giorni? Se con questa modifica finalmente la scansione di Googlebot migliora, dopo 3 mesi tornerà tutto come prima bah..
-
Personalmente ho notato un incremento di scansione negli ultimi 7 giorni da parte di Google in diversi siti che gestisco. Aggiorno il thread se riscontro altre novità.
-
@zpeppez said:
Dagli Strumenti per i Webmaster di Goggle, ho notato che é possibile personalizzare la velocità di scansione, attualmente é media e se provassi ad aumentarla? Qualcuno ha qualche esperienza in merito?
Ciao, zpeppez, qui trovi un'esperienza descritta in dettaglio con tanto di grafici sull'andamento nei 90 gg di validità: Google's Faster Crowl Rate? No Thanks, che In sostanza non sembra rilevare miglioramenti significativi, del resto in linea con le indicazioni fornite sul sito ufficiale di google nel post More Control of Googlebot's crawl rate, dove si legge appunto *However, setting it [the crawl rate] to higher value than the default won't improve your coverage or ranking.
*Scusa, posso chiederti cosa intendi quando dici che la tua velocità era 'media' prima di aumentarla, su quante richieste al secondo era impostata?
Su alcuni miei siti il wmt indica un valore della velocità di scansione determinata da google diverso per ognuno ma mi sembrano generalmente tendenti a 'bassa' (da 0,003 a 0,008) piuttosto che a 'media', per cui mi chiedevo se potesse dipendere dal server.
-
Ciao Gianrudi, l'indice era esattamente a metà tra "più lento" e "più veloce" mentre i valori erano "0.04 richieste al secondo" e "25 secondi tra le richieste", adesso ho portato l'indice al massimo...
-
Grazie, dal che deduco che la *velocità di scansione determinata da google *non dipende tanto dal tempo di risposta del server quanto piuttosto dal numero di pagine destinate a essere scansionate mediamente in un giorno.
Verosimilmente, quando aumenta il numero di pagine da scansionare aumenta anche la velocità di scansione, ma é la seconda variabile che dipende dalla prima e non viceversa (purtroppo).
Questo spiegherebbe anche perchè alcuni miei siti mostrano velocità di scansione diverse pur trovandosi sullo stesso server.
-
Oltre che dal numero di pagine anche dall'importanza di ogni pagina
Il brevetto del Google Webmaster Tools da questo punto di vista è molto preciso.
Tieni anche presente che il numero di risorse disponibili di Google, per quanto grandi, è sempre e comunque un numero finito.