• User

    Quindi tu dici che sia per questo?
    Ho già provato un plugin per la cache, essendo il mio sito sviluppato con wordpress, e i tempi di accessi alle pagine si erano ridotte però si venivano a creare problemi con il template in uso. Vediamo ora provo con un altro plugin simile, magari wp super cache e vediamo che succede....


  • ModSenior

    Prova WP Super cache e WP Widget Cache anche se sono un pò sfiduciato.

    Dopo aver attivato Widget Cache vai nella voce Widget e setta i minuti di attesa per la cache di ogni singolo widget.


  • User

    Ok Jinx, intanto provo WP Super Cache per qualche giorno e vi faccio sapere;)
    Grazie di tutto!


  • User

    Ho testato il plugin per wordpress WP Super Cache per qualche giorno con risultati negativi! Tempi di scansione invariati, le pagine a volte risultavano più lente del solito e per finire il template spesso magicamente cambiava con quello standard di Wordpress :surprised: Conclusione ho tolto anche questo plugin!!

    Dagli Strumenti per i Webmaster di Goggle, ho notato che é possibile personalizzare la velocità di scansione, attualmente é media e se provassi ad aumentarla? Qualcuno ha qualche esperienza in merito?


  • User

    Prontamente ho ricevuto un'email da Google, faccio un copia incolla:

    "Abbiamo ricevuto da un proprietario di sito la richiesta di modificare la velocità di scansione di Googlebot per questo sito: miosito.net
    Nuova velocità di scansione: Velocità personalizzata

    • 0.75 richieste al secondo
    • 1.333 secondi per richiesta
      L'implementazione della tua richiesta richiederà un paio di giorni.
      La nuova velocità di scansione avrà una validità di 90 giorni.
      Ti consigliamo di impostare una velocità di scansione personalizzata solo se si stanno verificando dei problemi di traffico sul server"

    Comunque che senso ha una validità di 90 giorni? Se con questa modifica finalmente la scansione di Googlebot migliora, dopo 3 mesi tornerà tutto come prima :dull: bah..


  • ModSenior

    Personalmente ho notato un incremento di scansione negli ultimi 7 giorni da parte di Google in diversi siti che gestisco. Aggiorno il thread se riscontro altre novità.


  • Moderatore

    @zpeppez said:

    Dagli Strumenti per i Webmaster di Goggle, ho notato che é possibile personalizzare la velocità di scansione, attualmente é media e se provassi ad aumentarla? Qualcuno ha qualche esperienza in merito?

    Ciao, zpeppez, qui trovi un'esperienza descritta in dettaglio con tanto di grafici sull'andamento nei 90 gg di validità: Google's Faster Crowl Rate? No Thanks, che In sostanza non sembra rilevare miglioramenti significativi, del resto in linea con le indicazioni fornite sul sito ufficiale di google nel post More Control of Googlebot's crawl rate, dove si legge appunto *However, setting it [the crawl rate] to higher value than the default won't improve your coverage or ranking.

    *Scusa, posso chiederti cosa intendi quando dici che la tua velocità era 'media' prima di aumentarla, su quante richieste al secondo era impostata?
    Su alcuni miei siti il wmt indica un valore della velocità di scansione determinata da google diverso per ognuno ma mi sembrano generalmente tendenti a 'bassa' (da 0,003 a 0,008) piuttosto che a 'media', per cui mi chiedevo se potesse dipendere dal server.


  • User

    Ciao Gianrudi, l'indice era esattamente a metà tra "più lento" e "più veloce" mentre i valori erano "0.04 richieste al secondo" e "25 secondi tra le richieste", adesso ho portato l'indice al massimo...


  • Moderatore

    Grazie, dal che deduco che la *velocità di scansione determinata da google *non dipende tanto dal tempo di risposta del server quanto piuttosto dal numero di pagine destinate a essere scansionate mediamente in un giorno.

    Verosimilmente, quando aumenta il numero di pagine da scansionare aumenta anche la velocità di scansione, ma é la seconda variabile che dipende dalla prima e non viceversa (purtroppo).

    Questo spiegherebbe anche perchè alcuni miei siti mostrano velocità di scansione diverse pur trovandosi sullo stesso server.


  • ModSenior

    Oltre che dal numero di pagine anche dall'importanza di ogni pagina 🙂
    Il brevetto del Google Webmaster Tools da questo punto di vista è molto preciso.
    Tieni anche presente che il numero di risorse disponibili di Google, per quanto grandi, è sempre e comunque un numero finito.


  • Moderatore

    Sì, anche se mi sembra di capire che l'importanza della pagina influisca piuttosto sulla sua specifica frequenza di scansione (crawl frequency of a document) e solo indirettamente, andando ad aumentare il numero complessivo di pagine destinate a essere scansionate mediamente in un giorno, sulla velocità di scansione del sito determinata da google (crawl rate limit).

    Noto tra l'altro che il brevetto parla sempre di crawl rate limit e non di crawl rate puro e semplice, due concetti sostanzialmente diversi.

    Se non ho capito male, solo quando il crawl rate limit può essere un fattore limitante nella scansione del sito (if the current crawl rate limit is a limiting factor in crawling), la richiesta di alzarlo potrà essere accettata, e questo spiegherebbe anche i 90 gg di test destinati appunto a verificare se può essere un fattore limitante oppure no, per poi decidere se alzarlo in via definitiva.

    Ma nei fatti, dato che gg adatta tale valore al numero di pagine da scansionare nel'unità di tempo (funzione appunto del numero di pagine e della loro importanza) mi pare che la possibilità che questo accada per i siti di piccole o medie dimensioni sia abbastanza remota.