- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Rimozione url con querystring e robots.txt
-
Rimozione url con querystring e robots.txt
dovrei rimuovere molte pagine che hanno delle querystring relative ad eventi.
Vi faccio un esempio
dettaglio-eventi.php?id=1
dettaglio-eventi.php?id=2
dettaglio-eventi.php?id=3Nel robots è meglio scrivere
Disallow: dettaglio-eventi.phpoppure è meglio scrivere
Disallow: dettaglio-eventi.php?id=*
Perchè la prima soluzione è comoda nei software che mi creano la sitemap escludendo tutte le pagine dettaglio-eventi.php?id=n.
Però ho visto che nello strumento di rimozione url di google mi accetta la seconda soluzione altrimenti non procede alla rimozione di tutte le url con querystring.
Vi ringrazio
-
Usa sia il GWT che il Robots.txt
Come hai risolto poi?
-
Ciao morgue86,
volevo aggiungere una nota sul robots.txt e darti la risposta per quale codice inserire.Parto dal presupposto che la pagina che vuoi bloccare sia nella root "/" del sito e non in una "/cartella/" dello stesso.
Tu vuoi che vengano bloccate tutte le url con il "?", quindi la formula più corretta è:
Disallow: /*?
Molto più semplice e occupa meno bit
Ciao
Enea
-
Ho risolto mettendo tutte e due le opzioni in cascata.
Disallow: dettaglio-eventi.php?id=*
Disallow: dettaglio-eventi.phpL'ordine sembra non avere importanza.
Molti software che creano le sitemap non riconoscono * e quindi inseriscono lo stesso gli url però se uso anche la seconda istruzione non lo fanno.