- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Pagine non trovate (357)
-
Ciao DARKF3D3,
se usi un cms stile wordpress che crea delle pagine per ogni tag è normale che vengano indicizzati a meno che tu non li abbia bloccati precedentemente, nella situazione che hai descritto la procedura migliore da fare quando si eliminano dei contenuti indicizzati è: prima bloccarli o tramite il file robots.txt con un disallow alla pagina o tramite i tag nofollow noindex all'interno della pagina web e poi puoi lascare così (e con molto tempo google li elimina dal suo indice) o li elimini a mano uno per uno dal GWT (metodo più veloce a eliminare ma meno veloce se hai parecchie pagine).Per il calo di visite è possibile che avendo eliminato così tante pagine in poco tempo google stia rivalutando il sito o le pagine stesse (questa è solo una supposizione, non avendo dati alla mano non posso esserne certo)
Le posizioni in serp sono rimaste invariate o hanno avuto cali?Ciao
Enea
-
Per quanto riguarda le keyword non c'è stato un vero e proprio calo, le posizioni oscillavano di molto da un giorno all'altro, pero in questi ultimi giorni sembrerebbe si stiano stabilizzando.
Mentre da GWT come faccio a eliminare manualmente i link delle categorie eliminate?
-
Dal GWT la procedura è questa:
Configurazione sito > Accesso crawler > rimuovi url
-
Grazie per l'aiuto
-
Di nulla
Ciao
Enea
-
Potresti anche mettere dei 301 mirati per un po' di mesi.
Se prima avevi tre tag: "variante1", "variante2" e "variante3", ed ora solo "tag-unica" (che raccoglie gli articoli precedentemente taggati con 1,2,3) puoi impostare dei 301 ad hoc dalle tre vecchie tag alla nuova.
Ciao!
-
In fatto è che sono sta eliminate all'incirca 500 tag, quindi sarebbe un lavoraccio.
Lasciando tutto così com'è, quindi senza 301, senza modifiche da GWT e file robots, in quanto verrebbero eliminate queste pagine?
-
Possono servire anche molti mesi.
Comunque puoi velocizzare il lavoro in questo modo: vai nel GWT, scarichi l'elenco dei 404, lo apri con un foglio di calcolo e con un po' di formulette generi dinamicamente tutti i redirect. Poi ti basta soltanto copiare ed incollare nell'.htaccess
Ciao!
-
Non esiste una tempistica predefinita, dipende da vari fattori, l'unica cosa che posso dirti è di avere pazienza che prima o poi verranno eliminate.
Cominque con il robots.txt impostato correttamente velocizzi l'eliminazione.Ciao
Enea
-
Il file robots è impostato in questo modo:
[HTML]#Configurazione wordpress
User-agent: *
Disallow: /wp-
Allow: /wp-content/uploads/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: /comments/
Disallow: /?Sitemap: http : // www ... ... ... / sitemap.xml.gz[/HTML]
Già che ci sono ne approfitto per chiedere se è corretta questa riga:
Disallow: /*?Lo chiedo perché controllando da GWT ora sono presenti parecchi link disattivati di questo tipo:
http : // www . dottorgadget.it /?p=8398Il fatto è che quei link, sono link ad articoli del blog... è corretto che sia così?
-
Per quella situazione potrebbe essere sufficiente anche solo:
Disallow: /?
perchè prima del punto di domanda c'è solo il "/"Se vai a quel link vieni rediretto alla pagina con la frendly url quindi puoi bloccare tranquillamente quell'indirizzo con il robots.txt
Ciao
Enea
-
A ok quindi è normale, verranno bloccati gli indirizzi che fanno il redirect mentre quelli principali saranno presenti nell'indice.