- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Pagine non trovate (357)
-
Pagine non trovate (357)
All'incirca un mesetto fa mi sono reso conto che i tag di uno dei miei blog erano organizzati malissimo, infatti ne erano presenti più del doppio, se non il triplo, rispetto al numero degli articoli pubblicati. Di cui la maggior parte dei tag erano relativi solamente a un articolo o 2.
A quel punto li ho riorganizzati tutti, eliminandone almeno 500 "inutili", rinominandone altri e raggruppando gli articoli all'interno di tag più azzeccati.Fatto sta che ora su strumenti per i webmaster di google mi indica tutte le pagine relative ai tag eliminati mancanti mancanti, qualche giorno fa meno di 300, poi 300 e ora più di 350. Comunque guardando nel dettaglio si nota che quasi tutte queste pagine non sono più linkate, possibile che le segni ancora? Con il tempo questi link mancanti se ne andranno oppure devo fare qualcosa io?
PS: Avendo avuto anche un calo delle visite nel periodo successivo alla modifica/eliminazione dei tag, secondo voi questo lavoro può esserne la causa?
-
Ciao DARKF3D3,
se usi un cms stile wordpress che crea delle pagine per ogni tag è normale che vengano indicizzati a meno che tu non li abbia bloccati precedentemente, nella situazione che hai descritto la procedura migliore da fare quando si eliminano dei contenuti indicizzati è: prima bloccarli o tramite il file robots.txt con un disallow alla pagina o tramite i tag nofollow noindex all'interno della pagina web e poi puoi lascare così (e con molto tempo google li elimina dal suo indice) o li elimini a mano uno per uno dal GWT (metodo più veloce a eliminare ma meno veloce se hai parecchie pagine).Per il calo di visite è possibile che avendo eliminato così tante pagine in poco tempo google stia rivalutando il sito o le pagine stesse (questa è solo una supposizione, non avendo dati alla mano non posso esserne certo)
Le posizioni in serp sono rimaste invariate o hanno avuto cali?Ciao
Enea
-
Per quanto riguarda le keyword non c'è stato un vero e proprio calo, le posizioni oscillavano di molto da un giorno all'altro, pero in questi ultimi giorni sembrerebbe si stiano stabilizzando.
Mentre da GWT come faccio a eliminare manualmente i link delle categorie eliminate?
-
Dal GWT la procedura è questa:
Configurazione sito > Accesso crawler > rimuovi url
-
Grazie per l'aiuto
-
Di nulla
Ciao
Enea
-
Potresti anche mettere dei 301 mirati per un po' di mesi.
Se prima avevi tre tag: "variante1", "variante2" e "variante3", ed ora solo "tag-unica" (che raccoglie gli articoli precedentemente taggati con 1,2,3) puoi impostare dei 301 ad hoc dalle tre vecchie tag alla nuova.
Ciao!
-
In fatto è che sono sta eliminate all'incirca 500 tag, quindi sarebbe un lavoraccio.
Lasciando tutto così com'è, quindi senza 301, senza modifiche da GWT e file robots, in quanto verrebbero eliminate queste pagine?
-
Possono servire anche molti mesi.
Comunque puoi velocizzare il lavoro in questo modo: vai nel GWT, scarichi l'elenco dei 404, lo apri con un foglio di calcolo e con un po' di formulette generi dinamicamente tutti i redirect. Poi ti basta soltanto copiare ed incollare nell'.htaccess
Ciao!
-
Non esiste una tempistica predefinita, dipende da vari fattori, l'unica cosa che posso dirti è di avere pazienza che prima o poi verranno eliminate.
Cominque con il robots.txt impostato correttamente velocizzi l'eliminazione.Ciao
Enea
-
Il file robots è impostato in questo modo:
[HTML]#Configurazione wordpress
User-agent: *
Disallow: /wp-
Allow: /wp-content/uploads/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: /comments/
Disallow: /?Sitemap: http : // www ... ... ... / sitemap.xml.gz[/HTML]
Già che ci sono ne approfitto per chiedere se è corretta questa riga:
Disallow: /*?Lo chiedo perché controllando da GWT ora sono presenti parecchi link disattivati di questo tipo:
http : // www . dottorgadget.it /?p=8398Il fatto è che quei link, sono link ad articoli del blog... è corretto che sia così?
-
Per quella situazione potrebbe essere sufficiente anche solo:
Disallow: /?
perchè prima del punto di domanda c'è solo il "/"Se vai a quel link vieni rediretto alla pagina con la frendly url quindi puoi bloccare tranquillamente quell'indirizzo con il robots.txt
Ciao
Enea
-
A ok quindi è normale, verranno bloccati gli indirizzi che fanno il redirect mentre quelli principali saranno presenti nell'indice.