- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Il meta tag robots (non robot) e il file robots.txt
-
Il meta tag robots (non robot) e il file robots.txt
In questo articolo cercherò di spiegarvi come usare il meta tag robots e il file robots.txt
Il meta tag va messo in tutte le pagine
Il file solo nella root del nostro sitoil meta tag robots
Questo meta tag dà informazioni allo spider comunicandogli alcune informazioni(non tutti gli spider le seguono)
Ecco la sintassi
<META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">
INDEX comunica allo spider di mostrare la pagina nelle serp
NOINDEX comunica allo spider di non mostrare la pagina nelle serp
FOLLOW comunica allo spider di seguire i link nella pagina
NOFOLLOW comunica allo spider di non seguire i link nella paginail file robots.txt
Come già detto va messo nella root del sito
Ad esempio per il mio sarà www.giorgiotave.it/robots.txt
Io l'ho inserito lo stesso questo file, però come giusta regola non dovevo farlo in quanto con questo file si posso escludere cartelle o file dall'indicizzazione. Nel mio robots non escludo niente, il comportamento dello spider sarà lo stesso. Molte voci di corridoio dicono che allo spider di google piace trovare questo file, ma queste voci non sono verificate.
Il file è composto da
User-agent:
Disallow:Nel campo User-agent dovete mettere il nome dello spider. Con il simbolo * vi state riferendo a tutti gli spider.
Nel campo Disallow: direte cosa non volete che lo spider prelevi.
State dicendo a tutti gli spider che non si sono file che volete che non prelevino
User-agent: *
Disallow:Dite a google di non prendere il file ciao.htm
User-agent: googlebot
Disallow: /ciao.htmDite a google di non prendere niente nella cartella ciao
User-agent: googlebot
Disallow: /ciao/Ecco una lista di spider
-
Ho capito che il file robots.txt va messo nella root del sito, quella a cui si accede digitando www.indirizzodelsito.qualcosa
Se io non voglio che passi per una pagina presente nella cartella
root/cartella1/pagina.php
le cose da scrivere nel file robots sono le seguenti (seguendo la tua guida):
User-agent: *
Disallow: /cartella1/pagina.phpE come faccio se voglio escludere più pagine presenti
e sulla stessa cartella
e in cartelle differenti?Grazie
-
Ciao skiforum,
grazie per avermi fatto la domanda, mi ha fatto capire che nella guida va aggiunto qualcosa
Per escludere più file devi elencarli semplicemente
User-agent: *
Disallow: /cartella1/pagina.php
Disallow: /cartella2/pagina.php
Disallow: /cartella1/pagina2.phpGrazie ancora
-
ciao giorgio
dai un'occhiata qui, potrebbe interessare molti anche la tua guida
-
Grande
Ho scritto altri due articoli per la guida, ne sto scrivendo uno ora su yahoo quindi siamo a 3.
Sto ritoccando alcuni errori e dovrebbe uscire la versione 1.1
Questo tra un pò, forse un mese speriamo meno.Devo dire che grazie a voi sarà sempre migliore e più completa
Grazie davvero
La guida sarà tradotta anche in lingua inglese
-
@giorgiotave said:
Grande
Ho scritto altri due articoli per la guida, ne sto scrivendo uno ora su yahoo quindi siamo a 3.
Sto ritoccando alcuni errori e dovrebbe uscire la versione 1.1
Questo tra un pò, forse un mese speriamo meno.Devo dire che grazie a voi sarà sempre migliore e più completa
Grazie davvero
La guida sarà tradotta anche in lingua inglese
complimenti ancora... in inglese... bye George
-
@giorgiotave said:
Ciao skiforum,
grazie per avermi fatto la domanda, mi ha fatto capire che nella guida va aggiunto qualcosa
Per escludere più file devi elencarli semplicemente
User-agent: *
Disallow: /cartella1/pagina.php
Disallow: /cartella2/pagina.php
Disallow: /cartella1/pagina2.phpGrazie ancora Scherzi, grazie a te per la pronta risposta. Finalmente il forum giusto
-
Io non la traduco perchè non sarei all'altezza
skiforum
-
Complimenti, oggi questa discussione è stata mandata in newsletter da web marketing news
-
@fabioski said:
Complimenti, oggi questa discussione è stata mandata in newsletter da web marketing news
Perchè Godado ha inserito la mia guida sul suo sito e mi ha chiesto il permesso di pubblicarla nella newsletter
http://www.godado.it/about/marketing/indice_news_guida_posizionamento.html
-
Ancora più complimenti allora
-
giorgio for president
-
Ho fatto un test con il robots.txt per barracuda sudato. L'ho messo sul mio account sfruttandolo come pagina di doorway.
Essendo il robots.txt il file piu' letto dai motori si puo' usare anche in questo modo. Vediamo se e come si piazza...
-
Ho visto il tuo robots e sto aspettando che lo prendano tutti
-
@agoago said:
Ho fatto un test con il robots.txt per barracuda sudato. L'ho messo sul mio account sfruttandolo come pagina di doorway.
Essendo il robots.txt il file piu' letto dai motori si puo' usare anche in questo modo. Vediamo se e come si piazza...
farei notare che agoago ha sempre ragione + di Mamilu ^_____^ :
http://www.google.com/search?hl=en&q=inurl%3A"robots.txt"&btnG=Google+Search
il primo risultato è il robots.txt del sito ufficiale della casa bianca:
http://www.whitehouse.gov/robots.txt
un robots.txt con pr 5..come influirà sul sito?
secondo voi dovremmo linkare i robots.txt?