- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Utilizzo masiccio del robots.txt
-
Utilizzo masiccio del robots.txt
Salve a tutti,
Ci siamo già presentati sul forum, ci permettiamo di rifarlo qui in due righe.
GliAffidabili é ******Venendo al dunque, abbiamo deciso di porre mano in maniera consistente al nostro robots.txt con il fine di risolvere alcuni problemi di duplicazioni e di dispersione del "link juice" verso pagine di cui nn ci interessa l'indicizzazione sui motori.
Tre sono i macrointerventi che vorremo realizzare, al fine di deindicizzare:
--> i link presenti nella barra di navigazione e che implicano una registrazione da parte dell'utente (/registrazione, inserisci-annuncio,come-funziona, ecc)
--> tutte le URL contenteni un ? (Disallow: /*? ). Questo per eliminare un problema di duplicazione delle pagine di ricerca che non sono state soggette a riscrittura e che risultano però ancora indicizzate
--> tutte le pagine di ricerca che sono state riscritte cosi come tutte le pagine tag, onde evitare di incorrere in penalizzazioni causate da un eccesso di pagine tag. Avendo queste però una URL del tipo gliaffidabili/annunci/ipnosi, inserendo nel robots solamente "Disallow: /annunci", escluderemmo anche tutte le categorie, sottocategorie e annunci degli utenti che possiedono rispettivamente URL del tipo
gliaffidabili.it/annunci/servizi-informatici
gliaffidabili.it/annunci/servizi-informatici/sistemista
gliaffidabili.it/annunci/servizi-informatici/sistemista/offresi-sistemista-microsoftPensavamo quindi di inserire in allow tutte le macrocategorie, secondo il seguente schema.
Disallow: /annunci
Allow: /annunci/servizi-per-la-casa
Allow: /annunci/servizi-per-la-famiglia
Allow: /annunci/servizi-informatici
Allow: /annunci/professionisti
Allow: /annunci/servizi-medici
Allow: /annunci/creativi-e-informatici
Allow: /annunci/intrattenimento-ed-eventi
Allow: /annunci/benessere-e-tempo-libero
Allow: /annunci/altri-serviziSiamo curiosi di avere le vostre preziose critiche e suggerimenti
Grazie in anticipoMatteo
GliAffidabili.it
Dominio:
gliaffidabili.itMotori:
GooglePrima indicizzazione o attività:
aprile 2008Cambiamenti effettuati:
Ottimizzazione metatag, eliminazione riscrittura URL per molte sezioni del sitoEventi legati ai link:
Attività di scambio link estremamente limitataSito realizzato con:
Joomla + Community Builder + AdsManager (customizzazioni)Come ho aumentato la popolarità:
BlogChiavi:
Tutte le combinazioni "professioni + città" (es. babysitter milano, lezioni private roma)Sitemaps:
Si
-
Ciao Matteo, le mie considerazioni:
- il file robots serve a evitare l'indicizzazione di pagine - quindi ok come metodo contro i contenuti duplicati ma con la dispersione di link juice non c'entra niente (sempre ipotizzando che il PR scuplting serva ancora a qualcosa...)
- invece di disalloware (bleah!) le pagine con '?' non potete fare dei 301 verso le pagine con le URL riscritte?
- siete sicuri che sia una buona idea eliminare tutte la pagine delle tag? Sarà pur vero che un'eccessiva presenza nell'indice di GG di pagine tag può portare a delle penalizzazioni, ma se tenete sotto controllo il "fenomeno" aumentate il vostro numero di pagine nell'indice di GG e dunque la possibilità di essere trovati...
Saluti!
-
Ciao Matteo e benvenuto nel Forum GT.
A questo che scriveva SEO Italy ...
@SEO Italy said:invece di disalloware (bleah!) le pagine con '?' non potete fare dei 301 verso le pagine con le URL riscritte?
... Aggiungo la possibilità di indicare l'URL canonica.