• User

    Aggiornamento: ho caricato il robot.txt con l' istruzione

    User-agent: *
    Disallow: /tag/

    Ho però scoperto che nel "All in one Seo pack" installato c'è una funzione apposita: la lascio stare o attivo anche quella?

    Si chiama: Use noindex for Tag Archives


  • User

    Doppio invio, pardon.


  • Moderatore

    Assieme sono ridondanti: il robots.txt inibisce l'accesso del crawler alla pagina quindi qualsiasi cosa tu ci scriva (compreso il metatag noindex) non verrà letto.

    Puoi implementare il "noindex, follow" al posto della riga sul robots.txt: in questo caso le pagine verranno visitate, i link presenti all'interno di queste seguiti ma non appariranno pagine tag nei risultati di ricerca e non saranno considerate duplicati.

    Quale strategia attuare dipende molto dalla struttura del sito: preferisci che Googlebot usi risorse per entrare in pagine che non indicizzerà per poi seguire i link presenti (presumibilmente verso i post più vecchi) oppure che quelle risorse si riversino sugli altri link del sito, senza l'accesso alle pagine tag? Valuta (senza aspettarti grosse differenze).


  • User

    Dopo oltre un mese di attesa con il solo robot.txt non ho avuto benefici, i tag indicizzati sono rimasti al loro posto.

    Ho quindi eliminato il robot.txt ed attivato la funzione apposita presente in "All in one Seo pack" descritta come "Use noindex for Tag Archives": sono passate 2 settimane e ancora tutto è come prima, blog penalizzato dal tag excess e visite scarsine nonostante le tante pagine.

    Altri suggerimenti?


  • User

    @marcomanila said:

    Dopo oltre un mese di attesa con il solo robot.txt non ho avuto benefici, i tag indicizzati sono rimasti al loro posto.
    Altri suggerimenti?

    Non so se e' la soluzione corretta, ma e' quella che ho utilizzato io per risolvere un problema di tag excess.

    Rimetti il robotx.txt con il disallow della directory /tag/
    e, da strumenti per webmaster, cancella tutta la directory tag
    Ci mette una nottata e sparisce tutto


  • User

    ...E come si fa a cancellare la directory tag da strumenti per webmaster???


  • User

    "Rimuovi url" e metti direttamente la directory che hai gia' bloccato con robots.txt


  • User

    Ok, trovata!

    Ho fatto come mi hai suggerito, adesso vedo cosa succede.

    Ho anche notato che ci sono altri problemi sul blog:

    Tag title duplicati 142
    Meta descrizioni duplicate 45

    Questo perchè probabilmente vanno bloccate altre indicizzazioni, come quella per le pagine e le categorie, che generano contenuti che posssono sembrare duplicati.
    Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.


  • User

    Ok, trovata!

    Ho fatto come mi hai suggerito, adesso vedo cosa succede.

    Ho anche notato che ci sono altri problemi sul blog:

    Tag title duplicati 142
    Meta descrizioni duplicate 45

    Questo perchè probabilmente vanno bloccate altre indicizzazioni, come quella per le pagine e le categorie, che generano contenuti che posssono sembrare duplicati.
    Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.


  • User

    @marcomanila said:

    Tag title duplicati 142
    Meta descrizioni duplicate 45

    Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.

    Infatti, aspetta e vedi
    Io ho tolto gli archivi mensili, l'indicizzazione delle categorie e dopo ho lavorato sul resto.
    credo si debba anche controllare il rapporto tra indicizzati ed effettivi. Ma questo dopo aver fatto pulizia