- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- GoogleBot gira, ma si perde nel sito
-
Impossibile: io sono ad Amburgo e il prog in ufficio
Why ?
P.s.
Mi è venuta un'idea che è forse è la migliore. Non mettere no follow ma spezzare il loop sostituendo ultime ricerche con un ultime inserzioni, un random sulle ultime 20 recensioni/articoli.
Che dite ?
-
@doopcircus said:
Impossibile: io sono ad Amburgo e il prog in ufficio
Why ?perchè non riesco a replicare il loop che ho visto prima (o meglio, non riesco ad arrivarci).
ma tipo, guarda qui: http://www .storiadellamusica.it/search_AC/ (stacco l'url che sennò googlebot se lo pappa :)).
a me non sembra normale (mentre invece mi sembra normale che googlebot si incarti. glielo dici tu di incartarsi!)
-
Si, ma questo link mica è presente nel sito
Non esiste una ricerca con quelle coordinate se guardi: diciamo che era un bug come dicevo legato alla presenza in certi nomi di disco/gruppo dello slash "/". Beccando quelli google partorisce ricerche di termini inesistenti, probabilmente considerando quelo slash come l'inizio di una sotto directory. Da lì i loop interminabili. Gli slash li ho eliminati più di una settimana fa ma google bot continua a cercarli, probabilmente a causa dei dati che ha in cache. Insomma, un vero casino Per di più queste pagine ricerche sono anche contenuti duplicati e google si imbottiglia perchè segue i link in cima (altri link a ricerca).
Per questo ho pensato che cambiare i link in cima con link NON a pagine risultati ricerca sia meglio, perchè il no follow lo mandrebbe (forse) ancora più in confusione.
-
guarda che io quel link l'ho trovato dopo che hai aperto il thread... quindi da qualche parte c'è un link a ricerche che fanno loop.
e vedi che mica è facile fare spam engine
-
ahahah
non mettere il dito nella piaga, lo sembra davvero, è proprio quello che temo
a questo punto un bel no-follow su tutti i link alle pagine search forse è l'unica, nè ?
-
si, direi nofollow + noindex + robots.txt
-
confermo quello che dice must, prima cliccando su un link ad esempio placebo uscivano url del tipo /search_Third/search_Third/search_AC/search_Third//search_AC/search
se vado ora sullo stesso link sembra più regolare, quindi se è una cosa casuale è un problema.
cmq se vuoi escluderli vai di robots.txt... scommetto 10 euro che se metti il nofollow lo spider continuerà a passare su quelle pagine per molto tempoaltra considerazione: ma non crea inconsistenza una homepage che è totalmente diversa di contenuti ad ogni reload?
-
Pensavo di procedere così:
No follow : rel="nofollow" nei link corrispondenti agli strong
No Index: nei meta del modello pagina dei risultati ricerca <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">, sostituendo ultime ricerche con un ultime che randomizzi tra le ultime 20 recensioni/articoli e ne pubblichi 5
Robot Txt: (http://www.motoricerca.info/robots.phtml) nella root con questo User-agent: googlebot
Disallow: /cartella_searchPer quanto riguarda l'inconsistenza esistono degli indici statici al secondo livello, ma in home un minimo di random serve per chi torna a vedere il sito frequentemente e, ripeto, la reazione iniziale del bot era stata molto buona.
La storia dei loop è cominciata dopo un pò, penso a causa di un paio di capitoli difettosi.Per quanto rigurarda la questione link sballati la cosa che hai visto coi placebo non me l'ha mai fatta: mi fai qualche altro esempio così checko di persona. Se c'è un bug nel codice allora la prima cosa da fare è risolvere quello ...
-
Non è google a far confusione ma quella funzione, puoi replicare l'errore così:
- cerca M/A/R/R/S
- cerca qualcos'altro
- nel box LE ULTIME DIECI RICERCHE clicca su M/A/R/R/S
- clicca sui link che trovi
ed entri in un loop infinito
-
@doopcircus said:
Pensavo di procedere così:
No follow : rel="nofollow" nei link corrispondenti agli strong
No Index: nei meta del modello pagina dei risultati ricerca <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">, sostituendo ultime ricerche con un ultime che randomizzi tra le ultime 20 recensioni/articoli e ne pubblichi 5
Robot Txt: (http://www.motoricerca.info/robots.phtml) nella root con questo User-agent: googlebot
Disallow: /cartella_searchSi va bene, ho avuto anche io una esperienza di loop su un wiki e ho risolto solo con il robots.txt usando l'asterisco, esempio disallow: *_search.
Per quanto rigurarda la questione link sballati la cosa che hai visto coi placebo non me l'ha mai fatta: mi fai qualche altro esempio così checko di persona. Se c'è un bug nel codice allora la prima cosa da fare è risolvere quello ...
si ok hai ragione tu, ho ricontrollato, il loop me lo da dal secondo livello, cioè clicco placebo e va tutto ok, poi clicco il primo e va in loop.
-
Si, esatto, per quello ero indeciso tra nofollow e sostituzione del box ultime ricerche con un altro che porta alle recensioni. Il problema , che mi fa propendere per la prima opzione,è che comunque ognuno di questi link alla pagina search crea una pagina diversa: centinaia di pagine identiche o quasi, ai limiti dello spam. La soluzione più sicura penso sia quindi quella di optare per un no follow, come diceva anche Must. Concordate ?
-
@doopcircus said:
La soluzione più sicura penso sia quindi quella di optare per un no follow, come diceva anche Must. Concordate ?
Per quel poco che può valere il mio parere, io non concordo. Se c'è un errore di programmazione va corretto, non mascherato ai motori, anche gli utenti comunque possono entrare in quel loop.
-
No, il loop per l'utente non c'è. Quei valori li possono creare solo gli spider che io sappia: tutti i link che ho testato vanno alla perfezione. Il fenomeno dei link sballati era legato alla presenza del "/" in alcuni nomi di artista e titoli di album ma ora è stato risolto.
-
Il loop per l'utente c'è, io ci sono andato e ho spiegato 2 post fa come riprodurlo, comunque se va bene a te tienlo così.
-
Come dicevo eliminiamo il campo ultime ricerche e mettiamo le ultime recensioni così eliminiamo qualsiasi rischio di loop
-
@doopcircus said:
Il fenomeno dei link sballati era legato alla presenza del "/" in alcuni nomi di artista e titoli di album ma ora è stato risolto.
quando, di preciso? prima o dopo che hai aperto questo thread?
-
Una settimana prima del thread: se guardi ora i m/a/r/s/s sono diventati m-a-r-s-s, whitelight/white heat è diventato white light hite heat e così via. Per conto mio il bot sta andando avanti di cache ...
-
e io come ci sono entrato nel loop?
-
Tu hai seguito i tracing delle ricerche in ultime ricerche: solo che le ricerche tracciate erano quelle di google, che a sua volta sembrava ripercorrere in un loop le ricerche buggate che aveva nelle pagine in cache: come dicevo, un gran bùrdel
-
ok, ora ho capito. e svuotare ora tutte queste "ultime ricerche" é fattibile?