- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Il mio blog è penalizzato?
-
In effetti credo proprio che si tratti di questo: il blog ha oltre 300 articoli ma oltre 600 tag!!!!!
Faccio la modifica e poi vediamo se funziona.
Per adesso grazie.
-
Aggiornamento: ho caricato il robot.txt con l' istruzione
User-agent: *
Disallow: /tag/Ho però scoperto che nel "All in one Seo pack" installato c'è una funzione apposita: la lascio stare o attivo anche quella?
Si chiama: Use noindex for Tag Archives
-
Doppio invio, pardon.
-
Assieme sono ridondanti: il robots.txt inibisce l'accesso del crawler alla pagina quindi qualsiasi cosa tu ci scriva (compreso il metatag noindex) non verrà letto.
Puoi implementare il "noindex, follow" al posto della riga sul robots.txt: in questo caso le pagine verranno visitate, i link presenti all'interno di queste seguiti ma non appariranno pagine tag nei risultati di ricerca e non saranno considerate duplicati.
Quale strategia attuare dipende molto dalla struttura del sito: preferisci che Googlebot usi risorse per entrare in pagine che non indicizzerà per poi seguire i link presenti (presumibilmente verso i post più vecchi) oppure che quelle risorse si riversino sugli altri link del sito, senza l'accesso alle pagine tag? Valuta (senza aspettarti grosse differenze).
-
Dopo oltre un mese di attesa con il solo robot.txt non ho avuto benefici, i tag indicizzati sono rimasti al loro posto.
Ho quindi eliminato il robot.txt ed attivato la funzione apposita presente in "All in one Seo pack" descritta come "Use noindex for Tag Archives": sono passate 2 settimane e ancora tutto è come prima, blog penalizzato dal tag excess e visite scarsine nonostante le tante pagine.
Altri suggerimenti?
-
@marcomanila said:
Dopo oltre un mese di attesa con il solo robot.txt non ho avuto benefici, i tag indicizzati sono rimasti al loro posto.
Altri suggerimenti?Non so se e' la soluzione corretta, ma e' quella che ho utilizzato io per risolvere un problema di tag excess.
Rimetti il robotx.txt con il disallow della directory /tag/
e, da strumenti per webmaster, cancella tutta la directory tag
Ci mette una nottata e sparisce tutto
-
...E come si fa a cancellare la directory tag da strumenti per webmaster???
-
"Rimuovi url" e metti direttamente la directory che hai gia' bloccato con robots.txt
-
Ok, trovata!
Ho fatto come mi hai suggerito, adesso vedo cosa succede.
Ho anche notato che ci sono altri problemi sul blog:
Tag title duplicati 142
Meta descrizioni duplicate 45Questo perchè probabilmente vanno bloccate altre indicizzazioni, come quella per le pagine e le categorie, che generano contenuti che posssono sembrare duplicati.
Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.
-
Ok, trovata!
Ho fatto come mi hai suggerito, adesso vedo cosa succede.
Ho anche notato che ci sono altri problemi sul blog:
Tag title duplicati 142
Meta descrizioni duplicate 45Questo perchè probabilmente vanno bloccate altre indicizzazioni, come quella per le pagine e le categorie, che generano contenuti che posssono sembrare duplicati.
Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.
-
@marcomanila said:
Tag title duplicati 142
Meta descrizioni duplicate 45Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.
Infatti, aspetta e vedi
Io ho tolto gli archivi mensili, l'indicizzazione delle categorie e dopo ho lavorato sul resto.
credo si debba anche controllare il rapporto tra indicizzati ed effettivi. Ma questo dopo aver fatto pulizia