• User

    Come aumentare le scansioni da parte di google bot?

    Salve a tutti ^^

    Volevo sottoporvi una problematica a cui non riesco apparentemente a venire a capo da alcuni mesi: mi piacerebbe che google effettuasse scansioni giornaliere di un mio sito web, presentando esso, aggiornate in tempo reale, news aggregate provenienti da svariate fonti, quindi essendo dinamicamente costantemente aggiornato. Il problema è che google, sembra ignorare questo fattore implicito, ma ancor peggio sembra ignorare direttive più esplicite che ho adottato, come il meta revisit-after 1-DAYS e la sitemap "come piace a lui" con priorità delle pagine e intervalli di scansione (ho provato sia con daily che con always). Il punto è che da almeno un mese, se non più, google sembra essersi intestardito a visitare e crowlare il sito ogni 4 giorni esatti!

    C'è un modo per incrementare il numero di scansioni per far in modo di aver indicizzate almeno le pagine delle news giorno prima?!?! :arrabbiato:

    Per inciso e per non spammare il sito è quello che ho come nick.
    Grazie a tutti!



  • ModSenior

    Ciao jabawack.it,

    Premetto che riproporre gli stessi contenuti di altri siti non è una cosa ben vista da Google.

    Da Google Webmaster Central (sei iscritto?) c'è un opzione che ti permette di aumentare la velocità di scansione sul sito (ma non sempre è disponibile), prova a vedere.


  • User

    Ciao Bocas e grazie per la risposta ^^

    Si sono iscritto, attualmente il settaggio è su velocità di scansione "più veloce", quindi -teoricamente- dovrebbe essere la più frequente possibile. Allo stato dei fatti invece resta sempre fissa a ogni 4 giorni, mentre girando anche qui sul forum gt ho visto parecchie persone sostenere che il googlebot crawli le loro pagine ogni giorno! A me che necessità invece non succede ^^

    Per quanto riguarda la tua considerazione sul fatto della produzione di contenuti... beh, credo che quello che ho progettato e creato renda un servizio abbastanza utile, che innanzitutto è quello di catalogare le informazioni e renderle disponibili anche quando sui rispettivi feed originari non sono più fruibili, e poi, impegnandomi molto negli ultimi mesi dal punto di vista della seo (nonostante questo non sia esattamente il mio campo principale di specializzazione nel settore dello sviluppo web) inizio a vedere i primi frutti, e bigG non lo vede proprio così male quel sito ^^


  • ModSenior

    Ok. E' da molto che hai online il sito?

    Sono dell'idea che nella velocità di scansione entrano in gioco anche diversi altri fattori, come i backlink,ma anche l'**hosting **non è da sottovalutare.


  • User

    Subendo centinaia di rimaneggiamenti, modifiche, espansioni, aggiunta di features e così vià è online solo da marzo di quest'anno. Nei primi tempi, com'è ovvio che sia, le visite erano a cadenza di 15-20 giorni (sempre monitorate dal google central webmaster, a cui ho fornito le prime sitemaps sin dai primi giorni di up del sito stesso). Poi la frequenza è costantemente sempre aumentata, fino appunto, nell'ultimo mese e più, di 4 giorni, soglia che pare non diminuire!
    A questo punto mi chiedo solo se è un problema di -attesa- o se si può fare di + ^^

    oltre a
    <meta name="revisit-after" content="1 days" />
    e a sitemap con priority sulle pagine e frequenza di rivisit si può fare altro??

    Tieni presente che la sitemap sottoposta a google al momento presenta circa 2100 pagine!
    può essere un problema dipendente da questo? anche in precedenza usando strumenti diversi
    che generavano sitemaps fermandosi a minori livelli di profondità, non cambiava nulla ^^

    dimenticavo: hosting aruba


  • User

    E' stato visitato per due giorni di fila per la prima volta da gbot! 😄 21 e 22 agosto riporta il g webmaster central! chissà da cosa dipende! ideE?


  • User Attivo

    Suggerisco: backlink?


  • User Attivo

    quantopiu è importante un sito, tanto piu il bot passa.
    quantopiu è linkato, tanto piu verra visitato (per fisiologica spiderizzazione).
    Se poi ogni volta che passa trova aggiornamenti, allora passa di piu.

    solo che se si vede un sito con contenuti duplicati, e G vuole risparmiare risorse, vien da se che se proprio deve far scorrazzare il suo bot... lo fa sui siti che propongono gli articoli originali. almeno secondo la mia opinabilissima opinione derivante da un'osservazione logica.

    pensa te se tutti i siti che aggregano contenuti di altri siti dovessero avere lo stesso trattamento di chi scrive roba nuova.. non sarebbe giusto, no? 🙂


  • User

    Questo è chiaro ^^
    Effettivamente non avevo pensato che il crawling potesse derivare anche dal raggiungimento del sito stesso da parte di altri backlinks ^^ in realtà però l'influenza dovrebbe essere, a rigor di logica, marginale, sennò i siti che hanno migliaia di bl verrebbero continuamente crawlati ogni volta che lo spider incontra un link verso quel sito!

    A parte questo vi volevo chiedere se per esperienza siti con grosse sitemap sottoposte a google hanno vantaggi/svantaggi, visto che ho uppato ieri una sitemaps da 9000 pagine ed è stata, a detta di google webmaster central, scansionata correttamente, ma se provo site:www.jabawack.it sono presenti poco più di 300 pagine... questione di tempo?


  • User Attivo

    Fammi capire... hai proposto a zio gUgol 9000 pagine in 24 ore? :'D

    folle!

    dagliene in pasto .. ch ene so.. anche 100 al giorno son troppe secondo me!
    Cosi si vede TROPPO che son pagine dai contenuti O autogenerati O duplicati!

    E poi non è un cagnolino gugol eh.. non è che se gli dai 100 pagine le legge e se gliene dai 1000... uguale!
    E se questo non accade è normale.. prima di guadagnarti l'attenzione (di google, della gente, di una ragazza sbav-sbav) te lo devi meritare!

    Ergo "fai il bravo", almeno all'inizio 😄


  • User

    LoL 😄
    Ho solo uppato la sitemap! 😛 Non pensavo si incavolasse... ^^ Vedrò che conseguenze seguiranno, almeno a livello di "effetti collaterali" riscontrabili ad occhio (-30/-900 nelle serp, ban o cose del genere ^^) e vi terrò aggiornati!


  • User Attivo

    nono, parlo di upload di pagine non di sitemap 🙂

    uppare 9000 pagine (e abbiam capito che non è il tuo caso) puzza di spamengine o grabbatore di contenuti, tutto qui.
    prendilo come un tip in piu, ma stai tranquillo per il tuo sito 🙂