- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Chiarimento in merito a....
-
Chiarimento in merito a....
Salve a tutti...sono un nuovo utente del forum:)
Volevo sapere se secondo voi è normale che un bot di google sta ormai da settimane e settimane 24 ore su 24 sul mio sito.
Dalle statistiche interne vedo che visita moltissime pagine e di per se mi sembra una cosa positiva....ma quello che non mi torna è il fatto che come dicevo su "abita" sul mio sito da moltissimo tempo:)
La prendo come cosa positiva o negativa?
Grazie
-
Ciao patrecord e Benvenuto sul Forum GT.
Che vuol dire che GoogleBot "abita" nel tuo sito? Il fatto che aggiorni i dati tutti i giorni è normale e lo fà con tutti.
A te aggiorna i dati più volte al giorno?
-
Con il termine "abita" intendevo dire che sta perennemente sul mio sito e apre diverse connessioni verso parecchie pagine. Si tratta di un e-commerce aperto da un mesetto....forse dipende da questo...cioè dal fatto che l'indicizzazione non è ancora stata completata?
Per esempio in questo momento (dati che vedo nel backend del sito) su circa 80 clienti online almeno 50 provengono dallo stesso IP che è riconducibile a google.
-
Ciao patrecord,
non potrebbe essere un malfunzionamento del backend, che per qualche ragione continua a considerare aperte connessioni ormai chiuse?
-
No perchè varia sempre con il variare dei clienti (inteso come indirizzo IP) on line.
Secondo la vostra esperianza...vi capita spesso di vedere online lo stesso IP del bot google? E di vederlo tutti i giorni per settimane e settimane?
Per evitare di spammare non metto il link ma se c'è un'anima pia che ci vuole dare un'occhiata giusto per vedere se c'è qualche macro errore gliene sarei grato. Nel caso fatemi sapere che mando un PM.
Grazie a tutti
-
Secondo la mia esperienza, è normale che gli accessi del bot di google alle pagine del sito risultino provenire da uno stesso IP, ed è anche normale che si ripetano numerosi tutti i giorni, ma per vederli bisogna generalmente leggere il log del server.
Mi sembra meno normale che il pannello di backend li visualizzi come se fossero connessioni aperte di clienti.
Se vuoi, puoi riportare il link inattivo al sito, senza farlo precedere da http o www.
-
In effetti il cms che usavo prima (oscommerce) mi permetteva di filtrare i bot dai clienti...qui invece c'è solo l'elenco dei clienti online al massimo filtrabile tra clienti registrati e visitatori...
ad ogni modo lo shop è questo lamercerissima .it.
Fatemi sapere se notate, come dicevo sopra, qualche macro errore o se vi salta all'occhio qualcosa che rende difficoltosa la navigazione dello spider.
-
Ciao Patrecord,
guarda, secondo me è un problema di sessione, bisogna vedere quanto dura (in genere 10 minuti ma potrebbe essere di più).
Se i crawler per qualche strano motivo passano e ripassano nella giornata ad intervalli non troppo distanziati, tu continui a vedere le loro sessioni aperte, è successo anche a me.
Se nei webmaster tools controlli le statistiche di scansione, dovresti vedere però come si comporta con precisione il crawler.
Ciao!
-
Le statistiche di scansioni mi mostrano un grafico tipo elettrocardiogramma che non riesco ad interpretare:(
Dice sostanzialmente che in media scansiona 748 pagine al dì (max 1300 circa, min 87).
Tra l'altro nell'introduzione mi segnala ERRORI che pare non si risolvano nonostante il 25 febbraio abbia aggiornato (tramite funzione del backend) il sitemap.
Gli errori sono ad esempio relativi a prodotti non più disponibili che ho eliminato dal catalogo. Che dite...aspetto che si sistemino da soli o procedo con la funzione per rimuovere gli url?
Grazie;)
-
L'aspetto del grafico delle scansioni è quello tipico, il fatto che non riesci a interpretarlo mi sembra indicativo di un andamento sostanzialmente regolare, dato che eventuali anomalie significative dovrebbero risultare abbastanza evidenti.
Anche i valori di media, max e min pag/g sembrano rientrare, secondo la mia esperienza, nel normale range di un sito di quelle dimensioni.
Scusa posso chiederti anche i valori del tempo di download, nel terzo grafico?Sempre secondo la mia esperienza, questi dati non sono comunque aggiornati con frequenza e possono risalire anche a un paio di settimane prima.
Per quanto riguarda gli errori segnalati sulle pagine eliminate, la mia impressione è che il bot continui comunque a scansionare le pagine che gli sono già note anche quando queste non sono più presenti nella sitemap, probabilmente ne conserva memoria in altra forma.
Non saprei dire con certezza cosa sia meglio fare in casi come questi: se sia preferibile chiedere la rimozione dall'indice delle pagine non più utilizzate, lasciarle in essere scollegate dai menu o cancellarle semplicemente senza curarsi degli errori.
Teoricamente sembrerebbe più precisa la prima soluzione (chiedere la rimozione), io personalmente, se possibile, preferisco la seconda (lasciarle in essere); aspettiamo pareri illuminanti.
-
I dati relativi ai tempi di download sono:
Massimo 4.110
Medio 1.851
Minimo 1.079Per gli errori relativi alle pagine non più presenti aspetterò ancora un pò di giorni e vediamo se si sistema altrimenti procedo con l'apposito strumento di rimozione...(salvo vostre diverse indicazioni)
-
Ciao patrecord e benvenuto anche da parte mia nel Forum GT.
Ho una domanda per te... Il fatto che GoogleBot "abiti" nel tuo sito da qualche settimana ha comportato variazioni vistose nei tuoi posizionamenti in SERP ?
-
Credo di no. Mi spiego meglio....lo store è aperto dai primi di febbraio e attualmente più che hai risultati in SERP sto monitorano il traffico con Analitycs che mi segnala nella pagina della panoramica un aumento del 227% su base mensile.
Per quanto riguarda i risultati in SERP almeno con le key che mi interessano esco in posizioni da maglia nera:(
Si sono posizionate benino quelle linkate nella colonna "cosa c'è di nuovo" mentre quella linkata nella colonna col "cappello" è online da sabato sera e ancora non ha prodotto risultati interessanti.
Ragazzi...metto qui un ringraziamento generale per l'interessamento:)
-
@patrecord said:
Gli errori sono ad esempio relativi a prodotti non più disponibili che ho eliminato dal catalogo. Che dite...aspetto che si sistemino da soli o procedo con la funzione per rimuovere gli url?
Da quello che leggo un pò in giro nel forum, sarebbe meglio che tu segnalassi le pagine non più disponibili se queste restituiscono un errore 404 che ha google non piace per niente. Oppure dovresti approntare un redirect 301 che punta alla home.
Detto questo credo che dovresti lavorare sul trust del sito (che è molto giovane), quindi directory, BL, e quant'altro.