- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Pagine non trovate (357)
-
Dal GWT la procedura è questa:
Configurazione sito > Accesso crawler > rimuovi url
-
Grazie per l'aiuto
-
Di nulla
Ciao
Enea
-
Potresti anche mettere dei 301 mirati per un po' di mesi.
Se prima avevi tre tag: "variante1", "variante2" e "variante3", ed ora solo "tag-unica" (che raccoglie gli articoli precedentemente taggati con 1,2,3) puoi impostare dei 301 ad hoc dalle tre vecchie tag alla nuova.
Ciao!
-
In fatto è che sono sta eliminate all'incirca 500 tag, quindi sarebbe un lavoraccio.
Lasciando tutto così com'è, quindi senza 301, senza modifiche da GWT e file robots, in quanto verrebbero eliminate queste pagine?
-
Possono servire anche molti mesi.
Comunque puoi velocizzare il lavoro in questo modo: vai nel GWT, scarichi l'elenco dei 404, lo apri con un foglio di calcolo e con un po' di formulette generi dinamicamente tutti i redirect. Poi ti basta soltanto copiare ed incollare nell'.htaccess
Ciao!
-
Non esiste una tempistica predefinita, dipende da vari fattori, l'unica cosa che posso dirti è di avere pazienza che prima o poi verranno eliminate.
Cominque con il robots.txt impostato correttamente velocizzi l'eliminazione.Ciao
Enea
-
Il file robots è impostato in questo modo:
[HTML]#Configurazione wordpress
User-agent: *
Disallow: /wp-
Allow: /wp-content/uploads/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: /comments/
Disallow: /?Sitemap: http : // www ... ... ... / sitemap.xml.gz[/HTML]
Già che ci sono ne approfitto per chiedere se è corretta questa riga:
Disallow: /*?Lo chiedo perché controllando da GWT ora sono presenti parecchi link disattivati di questo tipo:
http : // www . dottorgadget.it /?p=8398Il fatto è che quei link, sono link ad articoli del blog... è corretto che sia così?
-
Per quella situazione potrebbe essere sufficiente anche solo:
Disallow: /?
perchè prima del punto di domanda c'è solo il "/"Se vai a quel link vieni rediretto alla pagina con la frendly url quindi puoi bloccare tranquillamente quell'indirizzo con il robots.txt
Ciao
Enea
-
A ok quindi è normale, verranno bloccati gli indirizzi che fanno il redirect mentre quelli principali saranno presenti nell'indice.