- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Problema sezione "pagine principali" nella sezione query di ricerca
-
Ciao diabletto,
è molto probabile che il file robots.txt non sia configurato a dovere.Potresti postarmi il contenuto qui?
Ciao
Enea
-
Ciao Enea,
Io utilizzo wordpress e nel plugin all in one seo mi dice:"Verrà utilizzato il robots.txt virtuale generato da WordPress. Un file robots.txt reale NON deve esistere nella cartella del blog!" Quindi io non so dove andare a cercare questo file virtuale perchè all'indirizzo miosito.it/robot.txt non c'è niente. Però andando su Google webmaster nella sezione url bloccati spunta un link miosito.robot.txt in cui se ci clicco c'è scritto:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: miosito.it/sitemap.xml.gzIo però se possibile volevo creare un file robot.txt per tenere sotto controllo ciò che viene indicizzato però non so se questo può creare problemi con wordpress o il plugin all in one seo.
Grazie.
Diabletto
-
Per prima cosa dal plugin "al in one.." togli la spunta sul robots virtuale, con il notepad di windows (o un editor di testo che preferisci) crei un file di testo che rinominerai robots.txt, al suo interno metti per cominciare queste righe:
#Configurazione WP User-agent: * Disallow: /wp- Disallow: /wp-admin/ Allow: /wp-content/uploads/ Disallow: /trackback/ Disallow: /feed/ Disallow: /comments/ Disallow: */trackback/ Disallow: */feed/ Disallow: */comments/ Disallow: /*? Disallow: /tag/ Disallow: /category/ Disallow: /date/ Disallow: */attachment/ Disallow: /search/
Poi mi dovresti dire se le pagine dei tag delle categorie hanno i post interi o solo l'anteprima.
Ciao
Enea
-
Ho inserito le righe nel file che hai detto tu (anche la stringa [LEFT]#Configurazione WP va inserita?). Se clicco in qualsiasi categoria mi rimanda agli articoli interi che fanno parte di quella categoria.[/LEFT]
-
Ok, perfetto, allora il file va bene così, le righe scritte dopo il cancelletto "#" sono commenti, che ci siano o non ci siano non cambia per i MDR, servono a te se vuoi scriverti dei promemoria.
Ora dovrai aspettare che dal GWT gli errori spariscano, abbi pazienza, potrebbe impiegare molto tempo.
Tienici comunque aggiornati sulla situazione.
Ciao
Enea
-
Devo caricare il file robot.txt via FTP nella cartella "public_html"?
-
Lo devi caricare nella root del sito.
Ciao
Enea
-
1-Scusa, ma sono un pò ignorante in materia. Praticamente dove devo inserirla? Io so che la root si trova dove c'è il file index .php ma io ho due cartelle ("www" e "public_html" in cui vi è il suddetto file) Questo è lo schema del mio dominio in cyberduck:
h--p://i47.tinypic.com/2vdm99h.jpg2- Ma l'indirizzo della sitemap non va inserita nel file robot.txt?
3- Inoltre volevo chiederti; avendo installato wordrpess se è normale che abbia queste due cartelle ("www" e "public_html") che hanno contenuti quasi uguali; qui le immagini:
h--p://i50.tinypic.com/1zr06c2.jpg
h--p://i50.tinypic.com/28wdk5l.jpgGrazie diabletto.
-
Edit:
Dopo aver provato ad inserire il file robots.txt in public_html se vado su miosito.it/robots.txt il file mi spunta correttamente.
-
Normalmente www è un collegamento a public_html.
Si, puoi inserire anche la sitemap, non lasciare spazi fra le righe.Ciao
Enea
-
Ok grazie. Ti ho inviato un messaggio privato per quanto riguarda un dubbio sul mio blog.
-
Ok, visto che il problema era lo stesso potevi scrivere tranquillamente qui sul forum
Ciao
Enea
-
Dopo una settimana se scrivo site:w w w .riccardocino.it i risultati da 42 sono passati a 48 (ho aggiunto solo due articoli) con l'aggiunzione di pagine inutili come il pulsante "share" a altre pagine che puoi vedere tu stesso. Devo aspettare ancora? O fare qualcos'altro? (le pagine che voglio indicizzare ovvero articoli+pagine+home sono 22)
-
Una settimana potrebbe non bastare, se vuoi velocizzare l'eliminazione dal GWT inserisci gli url che vuoi eliminare in Ottimizzazione > rimozione url.
A volte può impiegare anche mesi, dipende sempre dalla situazione.Ciao
Enea
-
Allora procederò per le pagine già indicizzate alla rimozione degli url con lo strumento che mi hai indicato
Su webmaster mi dice che sono stati bloccati 23 Url con il file robots.txt.
Ti volevo inoltre chiedere se c'è una guida sulla sintassi del file robots.txt in modo da evitare per il futuro di chiedere aiuto. In nessun sito ho trovato una guida esaustiva.
-
Bene, poi facci sapere come procede.
Ciao
Enea
-
Ho visto che sono stati indicizzato sia miosito.it/feed sia alcuni miei articoli con /feed finale. Inoltre ci sono indicizzato alcuni url del tipo miosito.it/?page_id=9 che rimandano a pagine (non articoli) del mio sito già indicizzati correttamente. Posso rimuoverli con lo strumento di rimozione?
Un'altra cosa; è stato indicizzato come al solito il pulsante "share" (miosito.it/wp-content...) di un mio articolo inerito il 9 luglio mentre già il 5 luglio avevo inserito il disallow (disallow: wp-) nel file robots. Come mai?
Grazie
Diabletto
-
Per vederli hai cliccato sul link "ripetere la ricerca mostrando i risultati omessi"?
Ciao
Enea
-
Si. Tranne per una pagina: miosito.it/feed.
-
Ok, allora va bene così, devi avere pazienza, per un mio sito ha impiegato diversi mesi per sincronizzare il GWT.
Ciao
Enea