• User Attivo

    confermo quello che dice must, prima cliccando su un link ad esempio placebo uscivano url del tipo /search_Third/search_Third/search_AC/search_Third//search_AC/search

    se vado ora sullo stesso link sembra più regolare, quindi se è una cosa casuale è un problema.
    cmq se vuoi escluderli vai di robots.txt... scommetto 10 euro che se metti il nofollow lo spider continuerà a passare su quelle pagine per molto tempo 🙂

    altra considerazione: ma non crea inconsistenza una homepage che è totalmente diversa di contenuti ad ogni reload?


  • User Attivo

    Pensavo di procedere così:

    No follow : rel="nofollow" nei link corrispondenti agli strong
    No Index: nei meta del modello pagina dei risultati ricerca <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">, sostituendo ultime ricerche con un ultime che randomizzi tra le ultime 20 recensioni/articoli e ne pubblichi 5
    Robot Txt: (http://www.motoricerca.info/robots.phtml) nella root con questo User-agent: googlebot
    Disallow: /cartella_search

    Per quanto riguarda l'inconsistenza esistono degli indici statici al secondo livello, ma in home un minimo di random serve per chi torna a vedere il sito frequentemente e, ripeto, la reazione iniziale del bot era stata molto buona.
    La storia dei loop è cominciata dopo un pò, penso a causa di un paio di capitoli difettosi.

    Per quanto rigurarda la questione link sballati la cosa che hai visto coi placebo non me l'ha mai fatta: mi fai qualche altro esempio così checko di persona. Se c'è un bug nel codice allora la prima cosa da fare è risolvere quello ...


  • User Attivo

    Non è google a far confusione ma quella funzione, puoi replicare l'errore così:

    1. cerca M/A/R/R/S
    2. cerca qualcos'altro
    3. nel box LE ULTIME DIECI RICERCHE clicca su M/A/R/R/S
    4. clicca sui link che trovi
      ed entri in un loop infinito

  • User Attivo

    @doopcircus said:

    Pensavo di procedere così:

    No follow : rel="nofollow" nei link corrispondenti agli strong
    No Index: nei meta del modello pagina dei risultati ricerca <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">, sostituendo ultime ricerche con un ultime che randomizzi tra le ultime 20 recensioni/articoli e ne pubblichi 5
    Robot Txt: (http://www.motoricerca.info/robots.phtml) nella root con questo User-agent: googlebot
    Disallow: /cartella_search

    Si va bene, ho avuto anche io una esperienza di loop su un wiki e ho risolto solo con il robots.txt usando l'asterisco, esempio disallow: *_search.

    Per quanto rigurarda la questione link sballati la cosa che hai visto coi placebo non me l'ha mai fatta: mi fai qualche altro esempio così checko di persona. Se c'è un bug nel codice allora la prima cosa da fare è risolvere quello ...

    si ok hai ragione tu, ho ricontrollato, il loop me lo da dal secondo livello, cioè clicco placebo e va tutto ok, poi clicco il primo e va in loop.


  • User Attivo

    Si, esatto, per quello ero indeciso tra nofollow e sostituzione del box ultime ricerche con un altro che porta alle recensioni. Il problema , che mi fa propendere per la prima opzione,è che comunque ognuno di questi link alla pagina search crea una pagina diversa: centinaia di pagine identiche o quasi, ai limiti dello spam. La soluzione più sicura penso sia quindi quella di optare per un no follow, come diceva anche Must. Concordate ?


  • User Attivo

    @doopcircus said:

    La soluzione più sicura penso sia quindi quella di optare per un no follow, come diceva anche Must. Concordate ?

    Per quel poco che può valere il mio parere, io non concordo. Se c'è un errore di programmazione va corretto, non mascherato ai motori, anche gli utenti comunque possono entrare in quel loop.


  • User Attivo

    No, il loop per l'utente non c'è. Quei valori li possono creare solo gli spider che io sappia: tutti i link che ho testato vanno alla perfezione. Il fenomeno dei link sballati era legato alla presenza del "/" in alcuni nomi di artista e titoli di album ma ora è stato risolto.


  • User Attivo

    Il loop per l'utente c'è, io ci sono andato e ho spiegato 2 post fa come riprodurlo, comunque se va bene a te tienlo così.


  • User Attivo

    Come dicevo eliminiamo il campo ultime ricerche e mettiamo le ultime recensioni così eliminiamo qualsiasi rischio di loop 😉


  • Super User

    @doopcircus said:

    Il fenomeno dei link sballati era legato alla presenza del "/" in alcuni nomi di artista e titoli di album ma ora è stato risolto.

    quando, di preciso? prima o dopo che hai aperto questo thread?


  • User Attivo

    Una settimana prima del thread: se guardi ora i m/a/r/s/s sono diventati m-a-r-s-s, whitelight/white heat è diventato white light hite heat e così via. Per conto mio il bot sta andando avanti di cache ...


  • Super User

    e io come ci sono entrato nel loop?


  • User Attivo

    Tu hai seguito i tracing delle ricerche in ultime ricerche: solo che le ricerche tracciate erano quelle di google, che a sua volta sembrava ripercorrere in un loop le ricerche buggate che aveva nelle pagine in cache: come dicevo, un gran bùrdel


  • Super User

    ok, ora ho capito. e svuotare ora tutte queste "ultime ricerche" é fattibile?


  • User Attivo

    Il box ultime ricerche è proprio da togliere: mi spiace perchè era un'opzione carina ma qui se no non se ne esce, googlebot continuerà a girare in loop in eterno (per di più sputtanando il box con ricerche assurde)