- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- strano comportamento googlebot
-
No, duplicati
-
Se si tratta di contenuti duplicati, anche in parte, è abbastanza facile che Google decida di non indicizzarli.
-
E perchè parte di questi li indicizza, li aggiorna giornalmente, e li posiziona bene, e parte no ?
Ho fatto questo test apposta con 5 siti.
Si è comportato come mi aspettavo con 3 (indicizzato solo la home).
1 ha preso qualche pagina di più (una 10ina) e 1 è come fosse un sito buono.Di backlink ne ho messo giusto uno a sito per farlo arrivare.
Ora mi chiedo come mai faccia così
-
Secondo me... ogni volta che google trova un nuovo o vecchio sito, che mettono in rete flotte di pagine ogni giorno, "pesa" i siti in questione utilizzando una "bilancia" diversa.
Questa "bilancia" probabilmente è dotata di controllo pensati appositamente per questi siti che tendono ad "ingrassare" molto velocemente... per esempio....
Media world se un bel giorno decidesse di estrappolare dal suo db una pagina statica per ogni prodotto in assortimento, svolgendo questa operazione con razzocigno non credo che avrebbe problemi di indicizzazione per ognuna delle migliaia di pagine che si verrebbero a creare.
Se il mio vicino di casa, titolare della tabacheria dell'angolo, decidesse di publicare decine di migliaia di pagine per presentare il suo assortimento di "esagero" 200 tipologie di sigarette, pensate che incrementerebbe l'indice di pagine indicizzate in google ?
-
@uMoR said:
E perchè parte di questi li indicizza, li aggiorna giornalmente, e li posiziona bene, e parte no ?
"Deve essere lo spinterogeno" è l'unica risposta che mi sento di fornire senza analizzare i cinque siti.
Se tra cinque doppioni ne tiene in indice solo uno, la cosa è abbastanza normale.
Se i siti sono identici, le differenze di indicizzazione solitamente dipendono da fattori esterni.
-
Non ci siamo capiti:
non sono 5 siti uguali, sono 5 siti diversi il cui contenuto è stato duplicato da altri siti. Sono 5 siti di 5 settori diversi.
-
Per mia esperienza personale quello che dice Fabio (ciao Fabio) è sensato e ha un fondamento.
Ho fatto un test su un sito e ho pubblicato 1500 pagine insieme.
Detto sito dopo qualche giorno aveva tutte le pagine indicizzate da Google anche aiutato da una mappa che a dire il vero era fatta in fretta e furia e alla "viva il parroco" come dice un mio amicone.
Beh Gg da 1500 pagine le ha pian piano ridotte prima a 1100, poi a 850, poi a 500, poi a 25 e ora ne ha solo una e cioè la index.
Naturalmente questo è dovuto principalmente alla scarsità di contenuti delle pagine fatte e anche al loro contenuto molto simile perchè erano state fatte "a macchina" .
I siti migliori per Google sono sempre di più quelli fatti con calma, pubblicando un numero di pagine ragionevole alla volta e soprattutto come dice sempre low (ciao low) con contenuti originali.
GG non ha nessun interesse ne voglia di mettersi in cascina migliaia di pagine identiche o quasi e a dire il vero fa anche bene.
-
secondo me, la bilancia di cui parla Fabio altro non e' che il pagerank.
-
direi la popolarità del sito
.... data da un mix di anzianità, Link Popularity , qualità dei contenuti trattati
-
Sono spiacente di deludervi ma la bilancia a cui facevo riferimento non era affatto il PR.
-
attenzione Fabio
non ho detto che tu, con "bilancia", intendessi PR.
sono io che dico che quella "bilancia" e' il (vero) PR
-
@Rinzi said:
direi la popolarità del sito
.... data da un mix di anzianità, Link Popularity , qualità dei contenuti trattatiSono daccordo con Rinzi.
Anche secondo me la qualità e la quantità dei link che puntano ad un sito sono un forte incentivo al deep-crawling ed all'inclusione, importantissimo insieme all'aumento regolare dei contenuti specialmente per domini nuovi.Su un dominio più anziano di cui Google si fida, probabilmente a causa dei dati storici accumulati in modo corretto, puoi mettere anche migliaia di pagine in una volta sola.
Puoi fare quasi di tutto in realtà e le pagine scalano le serp come per magia
-
Mentre stavo a pranzo pensavo a questo post, mi ero ripromesso tornando in ufficio di fare chiarezza... ma Beke mi ha anticipato.
Certo ragazzi volevo ne + ne - trasmettervi quanto scritto da Beke e Rinzi.
I dati storici ritengo che si possano ormai considerare un dato di fatto e a cui prestare attenzione.
GG ormai è diventato una sorta di "grande fratello"... bene o male sa tutto o quasi di ogni sito e ne tiene traccia.
Vera secondo me anche la questione legata al controllo dei click ricevuti da una pagina, teoria valida anche per le door page.
Mi spiego meglio... se una door-page, "ha una sua storia" e redirecta ad una pagina attinente e viene clikkata regolarmente da anni,statene certi che starà in serp senza problemi, scrivo basandomi su mie door-page e di altri anche in settori ultra competitivi.
-
@Dell'Orto Fabio said:
se una door-page, "ha una sua storia" e redirecta ad una pagina attinente e viene clikkata regolarmente da anni,statene certi che starà in serp senza problemi
Ti posso assicurare che stanno in SERP (da anni, e cliccate) anche quelle meno attinenti.
L'utente che clicca, clicca senza sapere dove verrà dirottato. Pertanto il motore non può usare i click come una testimonianza positiva dell'attinenza di una pagina.
Diciamoci la verità: le pagine nuove vengono controllate da Google non appena il motore le individua sul web, ma quelle vecchie (miliardi di pagine) potrebbero dover attendere il proprio (lungo) turno prima di essere controllate.
Insomma, le doorway vecchie hanno più probabilità di rimanere nell'indice rispetto a quelle nuove.
Non esistono doorway con redirect automatico valide per Google e doorway con redirect automatico non valide per Google. Esistono solo doorway con redirect beccate e doorway con redirect non ancora controllate.
Questo non lo dico io, lo dice Google nella documentazione che dà ai dipendenti che si occupano dei controlli antispam.
-
Questo non lo dico io, lo dice Google nella documentazione che dà ai dipendenti che si occupano dei controlli antispam.
Secondo te la linea di confine fra spam e non spam in una door page qual'è ?
Mi spiego meglio...
Per me spam è invitare un utente dai motore a clikkare su pagine fatte esclusivamente per portare gli utenti su siti dove si vuole lucrare per esempio per incassare con adsense, oppure portare l'utente su un un sito che non presenta le aspettative dell'utente.
Una door invece che redirecta su un sito dove i contenuti sono quelli che si aspetterebbe l'utente non è per me spam, ma dici anche per gli operatori di GG ?
-
@Dell'Orto Fabio said:
Secondo te la linea di confine fra spam e non spam in una door page qual'è ?
La definizione di spam è "Quello che il motore di ricerca decide sia spam." e la mia opinione o quella di altri lascia il tempo che trova, perché chiunque non voglia fare spam deve attenersi alle opinioni del motore, e solo alle sue.
Secondo Google, uno dei concetti di spam è quello di ottenere una posizione in funzione di contenuti diversi da quelli che poi vengono mostrati agli utenti.
In altre parole, la posizione deve essere meritata in base ai testi che gli utenti poi si troveranno davanti quando cliccheranno sul link. Se il webmaster fa qualcosa per indurre il motore a far valutare il sito in funzione di altri testi, allora secondo Google sta facendo spam.
Poi magari Google non riesce a beccare tutto lo spam che vorrebbe, ma questo è un altro discorso.
Nota anche che il concetto non è eccessivamente distante da quello dell'alunno che legge dai foglietti nascosti o che riceve un suggerimento dai compagni durante un'interrogazione.
Quando andavo a scuola cercavamo di fregare i professori nei modi più subdoli e sofisticati possibili, eppure nessuno di noi riteneva che fosse giusto farlo. Lo facevamo consapevoli di sbagliare e non si capisce perché dei ragazzetti comprendano perfettamente questo concetto mentre molti webmaster adulti abbiano così tanta difficoltà a discernere tra cosa sia giusto o sbagliato agli occhi di un motore di ricerca.
-
@LowLevel said:
Quando andavo a scuola cercavamo di fregare i professori nei modi più subdoli e sofisticati possibili, eppure nessuno di noi riteneva che fosse giusto farlo. Lo facevamo consapevoli di sbagliare e non si capisce perché dei ragazzetti comprendano perfettamente questo concetto mentre molti webmaster adulti abbiano così tanta difficoltà a discernere tra cosa sia giusto o sbagliato agli occhi di un motore di ricerca.
Aggiungo una sottigliezza: agli occhi del webmaster, il professore (motore di ricerca) a volte da i voti a "casaccio".....Questo credo sia il motivo principale per cui, a volte, si ritenga "giusto" copiare (se prende 8 lui che non sa niente, lo voglio prendere anch'io che almeno qualcosa so').
Detto questo, la mia filosofia personale è che lo spam debba essere l'ultima carta da giocare (o quella dopo
), perché è comunque una sconfitta del webmaster.