- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Meta descrizioni e tag title duplicati
-
Con questa riga:
Disallow: /category/
Si chiede agli spider di non indicizzare la cartella ed il suo contenuto (questo anche per le cartelle virtuali create da wordpress)
@DARKF3D3 said:
Ho visto che nel robots ho già queste due righe:
Disallow: /?
Disallow: /*?Non vanno in conflitto?
Mi erano sfuggite
Quelle che hai fanno la stessa cosa, io terrei delle due questa:Disallow: /*?
Però tu hai anche il problema di avere degli url così:
/page/7/?s=star+wars&x=0&y=0
E questo tipo di url lo "blocchi" in questo modo:
Disallow: /?
La differenza è l'*, il primo indica che l'url deve avere prima del punto di domanda dei caratteri (numeri, lettere o altro) poi il "?" e poi altri caratteri, il secondo indica che l'url deve cominciare con il "?".
Morale, se gli url con tag duplicati sono tutti come quelli che hai indicato allora metti l'ultimo (/?), se vedi che ne hai anche come il primo esempio che ti ho spiegato usa anche il penultimo (/*?).
Spero di essere stato abbastanza chiaro :), se hai ancora dei dubbi non esitare a chiedere.
Ciao
Enea
-
Per togliere i contenuti duplicati evitando di bloccare le categorie stavo pensando di usare un codice di questo tipo:
[HTML]Disallow: /category/*[/HTML]
invece di:
[HTML]Disallow: /category/[/HTML]In questo modo dovrebbe bloccare solo le pagine dalla 2 in poi, giusto?
-
Cosa vuol dire dalla 2 in poi?
Comunque tutti e due fanno la stessa cosa e normalmente si usa il secondo.
L'asterisco si usa solo dove necessario.Ciao
Enea
-
Forse ho sbagliato, quello che vorrei fare è lasciare su allow le categorie di questo tipo:
[HTML]/category/casa-e-ufficio/[/HTML]E bloccare queste:
[HTML]/category/casa-e-ufficio/page/14/[/HTML]Dici che così può funzionare?
[HTML]
Disallow: /category/casa-e-ufficio/*
Disallow: /category/gadget/*
... ripetuto per tutte le categorie
[/HTML]
-
La procedura corretta è questa:
Disallow: /category/ Allow: /category/casa-e-ufficio/
Ma se lo fai su tutte le categorie è inutile il disallow.
Ciao
Enea
-
Ciao overclokk
Ho letto i commenti inseriti qui sul forum e avendo un problema simile Ti chiedo un aiuto.
Come l'amico DARKF3D3 anche io ho un problema simile sugli strumenti del webmaster di G Ho guardato proprio ieri e mi sono accorto di avere 618 Tag Title Duplicati!! La natura dei duplicati è più o meno uguale e qui di seguito ti inserisco una parte del reporto di G.
Pagine con tag title duplicati Pagine Appstore Il Futuro dei Cellulari e Smartphone Nokia Symbian, Android, iPhone, iPad, Tablet e PC Andr /?s=appstore
/page/2/?s=appstore
2 Engadget Il Futuro dei Cellulari e Smartphone Nokia Symbian, Android, iPhone, iPad, Tablet e PC Andr /?s=engadget
/page/16/?s=engadget
2 Amoled Il Futuro dei Cellulari e Smartphone Nokia Symbian, Android, iPhone, iPad, Tablet e PC Androi /?s=amoled&paged=4
/page/16/?s=amoled
/page/4/?s=amoled
3 Nokia Il Futuro dei Cellulari e Smartphone Nokia Symbian, Android, iPhone, iPad, Tablet e PC Android /?paged=35&s=Nokia
/?s=Nokia&x=38&y=9&paged=18
/?s=Nokia&x=38&y=9&paged=27
/?s=Nokia&x=38&y=9&paged=3
/?s=Nokia&x=38&y=9&paged=75
/?s=Nokia&x=38&y=9&paged=82
/?s=nokia
/page/13/?s=Nokia&x=38&y=9
/page/18/?s=Nokia
/page/2/?s=Nokia
/page/28/?s=Nokia&x=38&y=9
/page/33/?s=Nokia
/page/6/?s=Nokia
Su lettura dei tuoi posto ho modificato il mio robots.txt su wordpress in questo modo:
User-agent: *
Disallow: /?
Disallow: /page/
Disallow: /*?Ti chiedo se può andare bene o devo implemetare il Robots con qualche altro comando.
Grazie in anticipo.
Giorgio
-
Si, quel modo dovresti risolvere.
Io attualmente sto usando questo robots:
[HTML]
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: */trackback
Disallow: */feed
Disallow: /comments
Disallow: /?
Disallow: /?
Allow: /wp-content/uploads
[/HTML]
-
Ciao allmobileworld.it e benvenuto sul forumGT,
@allmobileworld.it said:
Su lettura dei tuoi posto ho modificato il mio robots.txt su wordpress in questo modo:
>User-agent: * Disallow: /? Disallow: /page/ Disallow: /*? >``` Ti chiedo se può andare bene o devo implemetare il Robots con qualche altro comando. Questi dovrebbero essere sufficienti, inseriscili nel robots e attendi pazientemente che il GWT si aggiorni. Tienici informati su come procede o se hai altri problemi. Ciao Enea
-
@DARKF3D3 said:
Forse ho sbagliato, quello che vorrei fare è lasciare su allow le categorie di questo tipo:
[HTML]/category/casa-e-ufficio/[/HTML]E bloccare queste:
[HTML]/category/casa-e-ufficio/page/14/[/HTML]Dici che così può funzionare?
[HTML]
Disallow: /category/casa-e-ufficio/*
Disallow: /category/gadget/*
... ripetuto per tutte le categorie
[/HTML]Non ho capito se alla fine sei riuscito ad indicizzare le categorie escludendo però le pagine dalla 2 a seguire.
-
Ciao ragazzi riapro questo post interessantissimo del quale mi sto servendo per tentare di migliorare gli errori nel Google Webmaster Tool.
Vorrei chiedere gentilmente se questi due comandi pensate possano fare al mio caso:
Disallow: /tag/*/page/
Disallow: /category/*/pageCosa vorrei non far indicizzare?
Tutte le pagine tag e category FATTA ECCEZIONE della prima.
Url base di category e tag sono del tipo:
/category/news/
/tag/newse le relative pagine successive sono:
/category/news/page/2/
tag/news/page/2/Grazie davvero a tutti ragazzi.
-
Ciao Tradingforex
per il tuo caso specifico è sufficiente che usi queste due righe:
Disallow: /tag/ Disallow: /category/
In questo modo "blocchi" tutto il contenuto di quelle cartelle.
Ciao
EneaEdit: cosa intendi per "fatta eccezione della prima"?
-
Salve e grazie per la cortese risposta overclock. Io non vorrei oscurare al motore tutte le pagine category e tag bensi dalla seconda all ultima insomma lasciare solo la prima. Non so come poter spiegare meglio. Grazie
-
Ciao tradingforex, mi potresti scrivere la url che vuoi bloccare e quella che non vuoi bloccare?
Scrivila in questo formato: tuosito.tld/ecc/ecc
Quindi senza http e www
Ciao
Enea
-
Scusate se riapro la discussione dopo qualche mese: io per risolvere il problema ho richiesto la rimozione degli url interessati da Strumenti per Webmaster. Di fatto la pagina che non volevo fosse indicizzata non è più presente se la cerco su google, tuttavia è rimasta nella lista dei tag title duplicati nella scheda "Miglioramenti HTML" di Strumenti per Webmaster.
Secondo voi ho sbagliato qualcosa o va bene così?
-
Ciao lorenzo3 e benvenuto sul forumGT,
l'unica cosa da fare ora è aspettare i tempi biblici del GWTCiao
Enea
-
Grazie per la risposta overclokk, aspetterò allora che "Strumenti per Webmaster" si accorga della modifica.