• User Newbie

    Googlebot mi sabota

    Salve.

    Sono nuovo e mi sono registrato per cercare di risolvere il mio problema, visto che in giro non ho trovato granchè a riguardo.

    Il mio sito è online dal 2002, e man mano sono riuscito a farlo crescere. Ho quasi 5000 iscritti sul forum, nel corso del tempo ho dovuto adattare l'hosting alle esigenze del forum.

    Questo mese, precisamente il 24, mi sono accorto che qualcosa non andava: i 100 gb di banda mensile forniti dal mio hosting era esauriti, anzi sforati.

    Analizzo le statistiche e mi accorgo che googlebot ha succhiato la bellezza di 77,22 Gb...

    L'indomani ricevo mail dal mio hosting che mi ha disattivato il sito fino alla fine di questo mese, per poi riattivarlo ad Ottobre.

    Ora, so che la domanda è troppo generica, ma da cosa potrebbe dipendere ciò?

    Il mio sito è composto da:
    scheletro in html con dei contenuti anche vecchiotti, che però mi viene più comodo gestire con FrontPage;
    portale mkportal ovviamente in php, con iframe per visualizzare al suo interno le pagine html;
    forum in phpbb2, ipermoddato, sul quale si basa la vita del mio forum;
    vari script php ma raramente utilizzati;
    come sponsor uso adsense e oxado...

    Non so se possono "bastare" come dati...
    Il fatto è che appena avrò il sito riattivato, devo provvedere a RISOLVERE il problema per non trovarmi anche ad Ottobre nelle stesse condizioni...

    Grazie x eventuali suggerimenti e scusate se il mio intervento dovesse risultare sciocco...


  • Super User

    Ciao
    il tuo problema è normalissimo, google vede che nel tuo forum ci sono contenuti aggiornati e di conseguenza passa spesso a visitarti (succhiando banda) per ovviare a questo inconveniente dei andare su:

    https://www.google.com/webmasters/sitemaps/

    (Registrarti se non lo sei)

    e nella sez. strumenti della tua Sitemap (creala se non ce l'hai) c'è la funzione **"Imposta frequenza di Scanzione"

    e metti: "Più lentamente"

    Vedrai subito i cambiamenti al prossimo mese, ma se questo non dovrebbe bastare (puoi limitare l'accesso ad alcune pagine o sez. con il file Robot .txt)

    Ciao
    **


  • User Newbie

    Su STRUMENTI PER I WEBMASTER ero già registrato e su **Imposta frequenza di Scanzione **ero settato sull'opzione INTERMEDIA.

    Da Lunedì sapremo quanto questo mi aiuta.

    Per il robots.txt devo documentarmi e nel caso il problema persista, dovrò bloccare GoogleBot...

    GRAZIE CORREGIONALE!!![/ot]


  • Super User

    Di nulla

    facci sapere se risolvi e magari (nell'aria apposita) presentaci il tuo sito.

    Ciao.


  • User Newbie

    Un pò in ritardo, ma ho preferito essere sicuro prima di rispondere.

    Dunque, ho impostato la ricerca più lenta su strumenti per i WebMaster, nonchè messo nel robots.txt i seguenti "disallow":

    Disallow: /forum/images/
    Disallow: /forum/includes/
    Disallow: /forum/language/
    Disallow: /forum/templates/
    Disallow: /forum/common.php
    Disallow: /forum/config.php
    Disallow: /forum/faq.php
    Disallow: /forum/groupcp.php
    Disallow: /forum/login.php
    Disallow: /forum/memberlist.php
    Disallow: /forum/modcp.php
    Disallow: /forum/posting.php
    Disallow: /forum/privmsg.php
    Disallow: /forum/profile.php
    Disallow: /forum/search.php
    Disallow: /forum/viewonline.php
    
    

    Bene, da una media di 2,7/ 2,8 gb quotidiani di Settembre, GoogleBot "succhia" ora 250 mb di media... Alla fine ho risolto alla grande il problema.

    Grazie 1000 per l'HELP!!! :yuppi: