- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Problema sezione "pagine principali" nella sezione query di ricerca
-
Dopo una settimana se scrivo site:w w w .riccardocino.it i risultati da 42 sono passati a 48 (ho aggiunto solo due articoli) con l'aggiunzione di pagine inutili come il pulsante "share" a altre pagine che puoi vedere tu stesso. Devo aspettare ancora? O fare qualcos'altro? (le pagine che voglio indicizzare ovvero articoli+pagine+home sono 22)
-
Una settimana potrebbe non bastare, se vuoi velocizzare l'eliminazione dal GWT inserisci gli url che vuoi eliminare in Ottimizzazione > rimozione url.
A volte può impiegare anche mesi, dipende sempre dalla situazione.Ciao
Enea
-
Allora procederò per le pagine già indicizzate alla rimozione degli url con lo strumento che mi hai indicato
Su webmaster mi dice che sono stati bloccati 23 Url con il file robots.txt.
Ti volevo inoltre chiedere se c'è una guida sulla sintassi del file robots.txt in modo da evitare per il futuro di chiedere aiuto. In nessun sito ho trovato una guida esaustiva.
-
Bene, poi facci sapere come procede.
Ciao
Enea
-
Ho visto che sono stati indicizzato sia miosito.it/feed sia alcuni miei articoli con /feed finale. Inoltre ci sono indicizzato alcuni url del tipo miosito.it/?page_id=9 che rimandano a pagine (non articoli) del mio sito già indicizzati correttamente. Posso rimuoverli con lo strumento di rimozione?
Un'altra cosa; è stato indicizzato come al solito il pulsante "share" (miosito.it/wp-content...) di un mio articolo inerito il 9 luglio mentre già il 5 luglio avevo inserito il disallow (disallow: wp-) nel file robots. Come mai?
Grazie
Diabletto
-
Per vederli hai cliccato sul link "ripetere la ricerca mostrando i risultati omessi"?
Ciao
Enea
-
Si. Tranne per una pagina: miosito.it/feed.
-
Ok, allora va bene così, devi avere pazienza, per un mio sito ha impiegato diversi mesi per sincronizzare il GWT.
Ciao
Enea
-
Ritorno su questa discussione dicendo che il file robots.txt penso stia funzionando Bene. Su GWT mi dice che sono stati bloccati automaticamente 95 Url. Quando scrivo il comando site:miosito.it nonostante mi dice che ci sono 146 risultati alla 4° pagina si interrompono i risultati dicendo che sono stati omessi. C'è però un problema; vengono indicizzate le pagine del mio sito del tipo miosito.it/page/2/ fino alla pagina 4. Che stringa dovrei inserire per non fare indicizzare anche queste pagine?
-
Ciao Diabletto,
per bloccare quella url si usa questo codice:
Disallow: /page/Ciao
Enea