- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Gli aggiornamenti tecnici di Google e il file robots
-
Gli aggiornamenti tecnici di Google e il file robots
Salve,
stavo leggendo nell'articolo Updating our technical Webmaster Guidelines, che non riesco a linkare, che **Disallowing crawling of Javascript or CSS files in your site?s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.
**Usando Visualizza come Google in GWT verifico problemi di rendering su un sito in Joomla in quanto tutti i file .css e .js sono bloccati perchè all'interno della cartella /components, bloccata di default dal file robots.
Modificare il file robots è un attimo, ma immagino ci sia una ragione se la cartella è bloccata di default. Può essere pericoloso cambiare l'impostazione? Come risolvere questa cosa che immagino riguardi molti siti?
-
Ciao GodWeb,
bella questa. Non credo ci siano problemi
-
Ciao Giorgio,
grazie per l'attenzione. Non ci sono problemi a rendere più flessibile il file robots.txt o non ci sono problemi se Google fa male il rendering?
Sto migliorando il rendering autorizzando l'accesso via robots ai singoli file che Google indica come bloccati, tipo:
Disallow: /modules/ (di default)
Allow: /modules/x.css
Allow: /modules/y.js
...I file però sono tanti in tante sottocartelle diverse (almeno una sottocartella per modulo, idem per componenti e plugin), e mi sto domandando se non sia meglio aprire l'intera cartella
Allow: /modules/
O almeno le sottocartelle dei singoli moduli, componenti e plugin: eviterei un robots chilometrico.
-
Scusa, hai ragione. Non ci sono problemi a rendere più flessibile il robots.txt
Puoi fare l'allow di tutti i file .css o .js!
Allow: /modules/*.css
-
Grazie mille e buon anno
-
Anche a te! Buon anno!