- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- strano comportamento googlebot
-
strano comportamento googlebot
Ho un sito dove in una settimana G si è mangiato ben 1245 pagine, perchè in cache me ne lascia solo e sempre le solite 79 invece che aggiungere le nuove ?
-
Per mia eserienza personale... succede quando si sottomettono gruppi di pagine, lo spider le rileva però l'infame le sputa con qualche giorno di ritardo ! :bho:
-
@uMoR said:
Ho un sito dove in una settimana G si è mangiato ben 1245 pagine
Quanto tempo è trascorso dalla visita di quelle 1245 pagine?
-
Dalle prima 500 una decina di giorni, delle restanti continua a prenderle tutti i giorni un po quindi alcune pagine le ha (ri)prese ieri, altre invece 5 giorni fa ecc ecc..
Ma solitamente impiega 2 giorni massimo !
-
Usi g sitemaps?
-
ma il problema non è "non mi spiderizza le pagine".
il problema è "le prende ma non le mette nel db"
-
brutto segno.
sono contenuti originali?
-
No, duplicati
-
Se si tratta di contenuti duplicati, anche in parte, è abbastanza facile che Google decida di non indicizzarli.
-
E perchè parte di questi li indicizza, li aggiorna giornalmente, e li posiziona bene, e parte no ?
Ho fatto questo test apposta con 5 siti.
Si è comportato come mi aspettavo con 3 (indicizzato solo la home).
1 ha preso qualche pagina di più (una 10ina) e 1 è come fosse un sito buono.Di backlink ne ho messo giusto uno a sito per farlo arrivare.
Ora mi chiedo come mai faccia così
-
Secondo me... ogni volta che google trova un nuovo o vecchio sito, che mettono in rete flotte di pagine ogni giorno, "pesa" i siti in questione utilizzando una "bilancia" diversa.
Questa "bilancia" probabilmente è dotata di controllo pensati appositamente per questi siti che tendono ad "ingrassare" molto velocemente... per esempio....
Media world se un bel giorno decidesse di estrappolare dal suo db una pagina statica per ogni prodotto in assortimento, svolgendo questa operazione con razzocigno non credo che avrebbe problemi di indicizzazione per ognuna delle migliaia di pagine che si verrebbero a creare.
Se il mio vicino di casa, titolare della tabacheria dell'angolo, decidesse di publicare decine di migliaia di pagine per presentare il suo assortimento di "esagero" 200 tipologie di sigarette, pensate che incrementerebbe l'indice di pagine indicizzate in google ?
-
@uMoR said:
E perchè parte di questi li indicizza, li aggiorna giornalmente, e li posiziona bene, e parte no ?
"Deve essere lo spinterogeno" è l'unica risposta che mi sento di fornire senza analizzare i cinque siti.
Se tra cinque doppioni ne tiene in indice solo uno, la cosa è abbastanza normale.
Se i siti sono identici, le differenze di indicizzazione solitamente dipendono da fattori esterni.
-
Non ci siamo capiti:
non sono 5 siti uguali, sono 5 siti diversi il cui contenuto è stato duplicato da altri siti. Sono 5 siti di 5 settori diversi.
-
Per mia esperienza personale quello che dice Fabio (ciao Fabio) è sensato e ha un fondamento.
Ho fatto un test su un sito e ho pubblicato 1500 pagine insieme.
Detto sito dopo qualche giorno aveva tutte le pagine indicizzate da Google anche aiutato da una mappa che a dire il vero era fatta in fretta e furia e alla "viva il parroco" come dice un mio amicone.
Beh Gg da 1500 pagine le ha pian piano ridotte prima a 1100, poi a 850, poi a 500, poi a 25 e ora ne ha solo una e cioè la index.
Naturalmente questo è dovuto principalmente alla scarsità di contenuti delle pagine fatte e anche al loro contenuto molto simile perchè erano state fatte "a macchina" .
I siti migliori per Google sono sempre di più quelli fatti con calma, pubblicando un numero di pagine ragionevole alla volta e soprattutto come dice sempre low (ciao low) con contenuti originali.
GG non ha nessun interesse ne voglia di mettersi in cascina migliaia di pagine identiche o quasi e a dire il vero fa anche bene.
-
secondo me, la bilancia di cui parla Fabio altro non e' che il pagerank.
-
direi la popolarità del sito
.... data da un mix di anzianità, Link Popularity , qualità dei contenuti trattati
-
Sono spiacente di deludervi ma la bilancia a cui facevo riferimento non era affatto il PR.
-
attenzione Fabio
non ho detto che tu, con "bilancia", intendessi PR.
sono io che dico che quella "bilancia" e' il (vero) PR
-
@Rinzi said:
direi la popolarità del sito
.... data da un mix di anzianità, Link Popularity , qualità dei contenuti trattatiSono daccordo con Rinzi.
Anche secondo me la qualità e la quantità dei link che puntano ad un sito sono un forte incentivo al deep-crawling ed all'inclusione, importantissimo insieme all'aumento regolare dei contenuti specialmente per domini nuovi.Su un dominio più anziano di cui Google si fida, probabilmente a causa dei dati storici accumulati in modo corretto, puoi mettere anche migliaia di pagine in una volta sola.
Puoi fare quasi di tutto in realtà e le pagine scalano le serp come per magia
-
Mentre stavo a pranzo pensavo a questo post, mi ero ripromesso tornando in ufficio di fare chiarezza... ma Beke mi ha anticipato.
Certo ragazzi volevo ne + ne - trasmettervi quanto scritto da Beke e Rinzi.
I dati storici ritengo che si possano ormai considerare un dato di fatto e a cui prestare attenzione.
GG ormai è diventato una sorta di "grande fratello"... bene o male sa tutto o quasi di ogni sito e ne tiene traccia.
Vera secondo me anche la questione legata al controllo dei click ricevuti da una pagina, teoria valida anche per le door page.
Mi spiego meglio... se una door-page, "ha una sua storia" e redirecta ad una pagina attinente e viene clikkata regolarmente da anni,statene certi che starà in serp senza problemi, scrivo basandomi su mie door-page e di altri anche in settori ultra competitivi.