- Home
- Categorie
- Digital Marketing
- SEO
- Robots.txt troppo ingombrante?
-
Robots.txt troppo ingombrante?
Il file robots.txt avrà delle limitazioni riguardo le dimensioni? Devo cancellare dall' indice di google circa 2000 pagine. Ovvero più di 2000 righe!
Le leggerà tutte?
-
Con il file robots.txt non riuscirai a cancellare le pagine se non usando una regola non standard.
Quello che devi fare è inserire un meta tag robots noindex all'interno delle pagine che vuoi de-indicizzare.
-
Per la cronaca, sulla dimensione massima del robots.txt:
il protocollo non la prevede, ma almeno per Google ricordo una dichiarazione di un paio d'anni fa da parte di JohnMu (se trovo il link lo posto) in cui faceva riferimento a "circa 1MB". Di righe ce ne stanno parecchie.
Ciao