- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- GoogleBot gira, ma si perde nel sito
-
guarda che io quel link l'ho trovato dopo che hai aperto il thread... quindi da qualche parte c'è un link a ricerche che fanno loop.
e vedi che mica è facile fare spam engine
-
ahahah
non mettere il dito nella piaga, lo sembra davvero, è proprio quello che temo
a questo punto un bel no-follow su tutti i link alle pagine search forse è l'unica, nè ?
-
si, direi nofollow + noindex + robots.txt
-
confermo quello che dice must, prima cliccando su un link ad esempio placebo uscivano url del tipo /search_Third/search_Third/search_AC/search_Third//search_AC/search
se vado ora sullo stesso link sembra più regolare, quindi se è una cosa casuale è un problema.
cmq se vuoi escluderli vai di robots.txt... scommetto 10 euro che se metti il nofollow lo spider continuerà a passare su quelle pagine per molto tempoaltra considerazione: ma non crea inconsistenza una homepage che è totalmente diversa di contenuti ad ogni reload?
-
Pensavo di procedere così:
No follow : rel="nofollow" nei link corrispondenti agli strong
No Index: nei meta del modello pagina dei risultati ricerca <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">, sostituendo ultime ricerche con un ultime che randomizzi tra le ultime 20 recensioni/articoli e ne pubblichi 5
Robot Txt: (http://www.motoricerca.info/robots.phtml) nella root con questo User-agent: googlebot
Disallow: /cartella_searchPer quanto riguarda l'inconsistenza esistono degli indici statici al secondo livello, ma in home un minimo di random serve per chi torna a vedere il sito frequentemente e, ripeto, la reazione iniziale del bot era stata molto buona.
La storia dei loop è cominciata dopo un pò, penso a causa di un paio di capitoli difettosi.Per quanto rigurarda la questione link sballati la cosa che hai visto coi placebo non me l'ha mai fatta: mi fai qualche altro esempio così checko di persona. Se c'è un bug nel codice allora la prima cosa da fare è risolvere quello ...
-
Non è google a far confusione ma quella funzione, puoi replicare l'errore così:
- cerca M/A/R/R/S
- cerca qualcos'altro
- nel box LE ULTIME DIECI RICERCHE clicca su M/A/R/R/S
- clicca sui link che trovi
ed entri in un loop infinito
-
@doopcircus said:
Pensavo di procedere così:
No follow : rel="nofollow" nei link corrispondenti agli strong
No Index: nei meta del modello pagina dei risultati ricerca <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">, sostituendo ultime ricerche con un ultime che randomizzi tra le ultime 20 recensioni/articoli e ne pubblichi 5
Robot Txt: (http://www.motoricerca.info/robots.phtml) nella root con questo User-agent: googlebot
Disallow: /cartella_searchSi va bene, ho avuto anche io una esperienza di loop su un wiki e ho risolto solo con il robots.txt usando l'asterisco, esempio disallow: *_search.
Per quanto rigurarda la questione link sballati la cosa che hai visto coi placebo non me l'ha mai fatta: mi fai qualche altro esempio così checko di persona. Se c'è un bug nel codice allora la prima cosa da fare è risolvere quello ...
si ok hai ragione tu, ho ricontrollato, il loop me lo da dal secondo livello, cioè clicco placebo e va tutto ok, poi clicco il primo e va in loop.
-
Si, esatto, per quello ero indeciso tra nofollow e sostituzione del box ultime ricerche con un altro che porta alle recensioni. Il problema , che mi fa propendere per la prima opzione,è che comunque ognuno di questi link alla pagina search crea una pagina diversa: centinaia di pagine identiche o quasi, ai limiti dello spam. La soluzione più sicura penso sia quindi quella di optare per un no follow, come diceva anche Must. Concordate ?
-
@doopcircus said:
La soluzione più sicura penso sia quindi quella di optare per un no follow, come diceva anche Must. Concordate ?
Per quel poco che può valere il mio parere, io non concordo. Se c'è un errore di programmazione va corretto, non mascherato ai motori, anche gli utenti comunque possono entrare in quel loop.
-
No, il loop per l'utente non c'è. Quei valori li possono creare solo gli spider che io sappia: tutti i link che ho testato vanno alla perfezione. Il fenomeno dei link sballati era legato alla presenza del "/" in alcuni nomi di artista e titoli di album ma ora è stato risolto.
-
Il loop per l'utente c'è, io ci sono andato e ho spiegato 2 post fa come riprodurlo, comunque se va bene a te tienlo così.
-
Come dicevo eliminiamo il campo ultime ricerche e mettiamo le ultime recensioni così eliminiamo qualsiasi rischio di loop
-
@doopcircus said:
Il fenomeno dei link sballati era legato alla presenza del "/" in alcuni nomi di artista e titoli di album ma ora è stato risolto.
quando, di preciso? prima o dopo che hai aperto questo thread?
-
Una settimana prima del thread: se guardi ora i m/a/r/s/s sono diventati m-a-r-s-s, whitelight/white heat è diventato white light hite heat e così via. Per conto mio il bot sta andando avanti di cache ...
-
e io come ci sono entrato nel loop?
-
Tu hai seguito i tracing delle ricerche in ultime ricerche: solo che le ricerche tracciate erano quelle di google, che a sua volta sembrava ripercorrere in un loop le ricerche buggate che aveva nelle pagine in cache: come dicevo, un gran bùrdel
-
ok, ora ho capito. e svuotare ora tutte queste "ultime ricerche" é fattibile?
-
Il box ultime ricerche è proprio da togliere: mi spiace perchè era un'opzione carina ma qui se no non se ne esce, googlebot continuerà a girare in loop in eterno (per di più sputtanando il box con ricerche assurde)