• User Newbie

    Utilizzo masiccio del robots.txt

    Salve a tutti,

    Ci siamo già presentati sul forum, ci permettiamo di rifarlo qui in due righe.
    GliAffidabili é ******

    Venendo al dunque, abbiamo deciso di porre mano in maniera consistente al nostro robots.txt con il fine di risolvere alcuni problemi di duplicazioni e di dispersione del "link juice" verso pagine di cui nn ci interessa l'indicizzazione sui motori.

    Tre sono i macrointerventi che vorremo realizzare, al fine di deindicizzare:

    --> i link presenti nella barra di navigazione e che implicano una registrazione da parte dell'utente (/registrazione, inserisci-annuncio,come-funziona, ecc)
    --> tutte le URL contenteni un ? (Disallow: /*? ). Questo per eliminare un problema di duplicazione delle pagine di ricerca che non sono state soggette a riscrittura e che risultano però ancora indicizzate
    --> tutte le pagine di ricerca che sono state riscritte cosi come tutte le pagine tag, onde evitare di incorrere in penalizzazioni causate da un eccesso di pagine tag. Avendo queste però una URL del tipo gliaffidabili/annunci/ipnosi, inserendo nel robots solamente "Disallow: /annunci", escluderemmo anche tutte le categorie, sottocategorie e annunci degli utenti che possiedono rispettivamente URL del tipo
    gliaffidabili.it/annunci/servizi-informatici
    gliaffidabili.it/annunci/servizi-informatici/sistemista
    gliaffidabili.it/annunci/servizi-informatici/sistemista/offresi-sistemista-microsoft

    Pensavamo quindi di inserire in allow tutte le macrocategorie, secondo il seguente schema.

    Disallow: /annunci
    Allow: /annunci/servizi-per-la-casa
    Allow: /annunci/servizi-per-la-famiglia
    Allow: /annunci/servizi-informatici
    Allow: /annunci/professionisti
    Allow: /annunci/servizi-medici
    Allow: /annunci/creativi-e-informatici
    Allow: /annunci/intrattenimento-ed-eventi
    Allow: /annunci/benessere-e-tempo-libero
    Allow: /annunci/altri-servizi

    Siamo curiosi di avere le vostre preziose critiche e suggerimenti
    Grazie in anticipo

    Matteo
    GliAffidabili.it
    Dominio:
    gliaffidabili.it

    Motori:
    Google

    Prima indicizzazione o attività:
    aprile 2008

    Cambiamenti effettuati:
    Ottimizzazione metatag, eliminazione riscrittura URL per molte sezioni del sito

    Eventi legati ai link:
    Attività di scambio link estremamente limitata

    Sito realizzato con:
    Joomla + Community Builder + AdsManager (customizzazioni)

    Come ho aumentato la popolarità:
    Blog

    Chiavi:
    Tutte le combinazioni "professioni + città" (es. babysitter milano, lezioni private roma)

    Sitemaps:
    Si


  • User Attivo

    Ciao Matteo, le mie considerazioni:

    • il file robots serve a evitare l'indicizzazione di pagine - quindi ok come metodo contro i contenuti duplicati ma con la dispersione di link juice non c'entra niente (sempre ipotizzando che il PR scuplting serva ancora a qualcosa...)
    • invece di disalloware (bleah!) le pagine con '?' non potete fare dei 301 verso le pagine con le URL riscritte?
    • siete sicuri che sia una buona idea eliminare tutte la pagine delle tag? Sarà pur vero che un'eccessiva presenza nell'indice di GG di pagine tag può portare a delle penalizzazioni, ma se tenete sotto controllo il "fenomeno" aumentate il vostro numero di pagine nell'indice di GG e dunque la possibilità di essere trovati...

    Saluti! 🙂


  • ModSenior

    Ciao Matteo e benvenuto nel Forum GT.

    A questo che scriveva SEO Italy ...
    @SEO Italy said:

    invece di disalloware (bleah!) le pagine con '?' non potete fare dei 301 verso le pagine con le URL riscritte?

    ... Aggiungo la possibilità di indicare l'URL canonica.