• User

    Ciao dechigno e grazie per il tuo intervento,
    ma bloccando i tag, credi che riuscirei a ritornare all'indicizzazione della pagina reale dell'articolo?

    Inoltre bloccando tramite robots, nella gestione dei link di google, risulterebbero non raggiungibili numeroe pagine e quindi errori.

    Il problema che hai appurato negli altri blog è risultata vincente con questa soluzione?

    :ciauz:


  • Super User

    Bloccando l'indicizzazione non generi alcun tipo di errore, dici solo allo spider che quella pagina non la deve indicizzare.

    Inoltre, una volta che hai modificato il robots.txt puoi richiedere la rimozione delle pagine ancora indicizzate relative ai tag (le tolgono in 12 ore circa).

    Poi farei anche la seconda modifica che ti ho suggerito.

    Gli altri siti, con interventi simili (non tutti i casi sono proprio uguali), abbiamo risolto il problema in circa 20-30 giorni.

    Buon lavoro. 😉


  • User

    @dechigno said:

    Ciao Airdave,

    penso si tratti di un problema legato all'indicizzazione dei tag.

    E' un problema che ho riscontrato anche su altri siti e blog, se i tag non ti portano tantissimo traffico, ti consiglio di bloccare la loro indicizzazione dal file robots.txt

    Google è diventato molto sensibile in questi termini.

    Inoltre, ti consiglio di autolinkare il titolo del post alla sua relativa URL, serve a tematizzare maggiormente la pagina del post per le parole chiave specifiche (solitamente contenute nel titolo del post).

    Buon lavoro,
    a presto.

    Ok, ho preso in carico e realizzato le modifiche che mi hai consigliato.
    nel frattempo mi ha indicizzato la sitemap dopo 3 giorni, inserendo quansi tutti gli articoli, ma degli ultimi indicizzati ancora nemmeno l'ombra....

    Vediamo cosa accadrà nelle prossime ore...

    Magari aggiorno questo articoli sull'argomento ....

    Grazie per il momento.


  • Super User

    Si si, grazie... aggiorna pure 🙂


  • User

    Allora in questi giorni la situazione in google webmaster si è stravolta e non poco generando

    Errori relativi alla sitemap 1748
    URL limitati da robots.txt 1768

    E realizzato un redirect 301 da htaccess sulle pagine /tag/

    Può servire a qualcosa?

    Ciao.


  • Super User

    Ciao,

    la sitemap la devi aggiornare (togliendo le url relative ai tag che non vuoi indicizzare).

    Gli url limintati da Robots.txt è ovvio che vengano conteggiati.

    Il 301 non era previsto e necessario, visto che le pagine dei tag esistono ancora (abbiamo solo detto che Google non le deve più indicizzare, ma gli utenti le possono ancora vedere).

    A disposizione,
    ciao! 😉


  • User

    Ciao dechi,
    allora un piccolo aggiornamento anche se la situazione non è cambiata poi molto.

    La sitemap, ha generato 4000 errori tra limitazioni robots e errori sitemap ma tutti gli articoli sono inclusi nell'indice di google, escluso l'ultimo mese e metà gennaio 😞

    Dave


  • Community Manager

    Ciao Dave,

    com'è oggi la situazione?


  • User

    @Giorgiotave said:

    Ciao Dave,

    com'è oggi la situazione?

    Salve Giorgio,
    il blog è rientrato dalla penalizzazione lo scorso 7 maggio, indicizzando i nuovi articoli e facendo riapparire in modo graduale quelli nel periodo nero.

    Purtroppo, quello che riscontro ora è che finchè sono il primo a pubblicare una news, l'articolo diventa primo, man mano che subentrano gli altri con una news identica passo in 2° o 3° pagina, come se non avessi più di tanto diritto.

    Una situazione che si ristabilirà? Rimarrò sempre penalizzato?

    Grazie per l'interesse.


  • Community Manager

    Credo che quanto mi descrivi sia un problema di popolarità e trust.

    Di solito, dovresti rimanere in prima pagina 🙂