• User Attivo

    Salve a tutti, anch'io ho il "vizio" di taggare un pò troppo. Su uno di miei blog ho oltre 400 tags, però il numero di articoli è 1600.

    Secondo voi devo snellire?

    ps. Un'altra cosa, se uso il comando site: w . w . w . dominio.com/tags google restituisce principalmente le pagine tags dei social bookmarker dove ho postato... Quindi contano anche i tags inseriti nei social?


  • User Attivo

    @extrabyte said:

    ps. Un'altra cosa, se uso il comando site: w . w . w . dominio.com/tags google restituisce principalmente le pagine tags dei social bookmarker dove ho postato... Quindi contano anche i tags inseriti nei social?

    Correggo: se si ha l'accortezza di cambiare il titolo del post, le pagine che vengono restituite dalla ricerca non dovrebbero essere interpretate come contenuto duplicato o comunque ridondante.


  • User Attivo

    Ho notato che il motore di ricerca di google (quello di adsense, per capirci) utilizza spesso e volentieri le pagine tags per elencare i risultati di una ricerca. Ad esempio, se cerco nel mio blog la parola chiave "pippo", alcuni risultati sono del tipo:

    w .w .w . mioblog.com/tags/pippo

    In questo modo, se clicco su tale link mi escono tutte le pagine taggate dalla key "pippo"

    Ora, se vado ad eliminare il tag pippo, perche' in eccesso ( o a fonderlo con altri tag, utilizzando il plugin marge tag), e provo a cliccare sul link sopra, ovviamente mi esce "pagina non trovata".

    Non è quindi controproducente sfoltire i tags?


  • User Attivo

    Quando elimino un tag vado sempre a inserire un redirect 301 nel mio file .htaccess, reindirizzando gli utenti dove voglio io.


  • User Newbie

    @xoen said:

    Avevo notato questo problema, avevo anche settato l'opzione "Use noindex for Tag Archives" di All in one SEO pack per WP ma niente, il problema rimaneva.

    Ora ho creato il file robots.txt, vediamo come va, grazie mille per il video :sun:!
    Passato un mese, ancora non va, cercando su google (site:http[...]xoen.org/tag) trova ancora oltre 400 risultati, la maggior parte pagine tag.

    Il file robots.txt c'è (xoen.org/robots.txt), In strumenti per il webmaster di google sembrerebber essere preso in considerazione. Qual'è il problema? Troppo presto?


  • ModSenior

    Ciao xoen,

    se il tuo sito è in SERP da oltre 2 mesi e riscontri problemi perché non posti in Consigli SEO e Penalizzazioni ? Leggi con cura il regolamento di sezione ...


  • User

    Ho notato anche io che il semplice noindex e la modifica al robots.txt non portano ai risultati sperati.
    In google le pagine dei tag non solo continuano ad esistere ma sono addirittura le meglio posizionate del sito.
    Ora sto "aumentando" la dose aggiungendo un "noarchive", giusto per provare a vedere se ottiene qualche effetto.
    Vi riaggiorno tra qualche settimana.


  • Super User

    Alla luce di queste raccomandazioni

    googlewebmastercentral.blogspot.com/2009/10/reunifying-duplicate-content-on-your.html

    si può considerare superato quel video?


  • ModSenior

    Se applichi i punti 5 e 6 di quell'articolo ...

    In ogni caso ti assicuro che se guardi Consigli SEO e Penalizzazioni i problemi dei contenuti duplicati sono la prima cosa che guardiamo in analisi nei siti... E a oggi posso azzardare e dirti che i contenuti duplicati sono il 70% delle casistiche.

    Ti suggerisco di leggere con attenzione questa questa case history.


  • Super User

    @mister.jinx

    Si avevo letto. Volevo solo capire o discutere se e come applicare quei punti nel caso dei tag per evitare l'estremo rimedio del robots.txt.

    Ovvero la pagina
    www . dominio.it/tag/pizza
    contenente 10 articoli, che link rel canonical deve avere?

    Io non uso i tag, ma cose simili, in automatico, per esempio

    • lista parole più cercate collegati alla pagina di ricerca
    • lista dei sinonimi della parola cercata collegati alla pagina di ricerca
      ecc.

    Uso il sistema con successo e da anni, ora sto implementando sul sito i link rel canonical e ho dei dubbi su come impostarli in quelle pagine.


  • User Newbie

    Ho risolto finalmente, ed in pochissime ore :). Vi spiego come ho fatto così magari qualcun altro non perde tempo.

    A distanza di un mese e mezzo dalla modifica del file robots.txt le pagine /tag/ erano sempre presenti in SERP. Stasera prima di cena da strumenti per il webmaster di Google ho usato la funzione "Rimuovi URL" per rimuovere la directory /tag/ :figo2:.

    Nonostante lo stato della richiesta sia ancora su "In attesa" poco fa ho controllato su google e finalmente sono indicizzate solo le pagine degli articoli del mio blog! :sbav:


  • User

    Il problema, credo, fosse non quello di eliminare le pagine TAG dagli indici di Google ma far sì che non provochi penalizzazioni... Ho letto post di persone che affermavano che sono le pagine meglio posizionate...

    Tuttavia se eliminare queste pagine dagli indici di Google vuol dire perdere la penalizzazione, allora ben venga. Ma questo ce lo devi dire tu 🙂

    Io sto sperimentando il rel="tag" nei link...


  • User Newbie

    @dabbia said:

    Il problema, credo, fosse non quello di eliminare le pagine TAG dagli indici di Google ma far sì che non provochi penalizzazioni... Ho letto post di persone che affermavano che sono le pagine meglio posizionate...

    Tuttavia se eliminare queste pagine dagli indici di Google vuol dire perdere la penalizzazione, allora ben venga. Ma questo ce lo devi dire tu 🙂

    Capisco che intendi ma per un maniaco compulsivo come me era fastidioso avere in SERP tutti quei risultati "strani", preferisco che se qualcuno cerca qualcosa arrivi all'articolo più attinente alla ricerca piuttosto che ad una lista di articoli che può anche confondere. Figurati che c'erano anche le pagine della forma indirizzomioblog/page, ovvero quelle con l'n-sima pagina del blog :dull:.

    Certo l'aver eliminato questi risultati dagli indici Google salva capra e cavoli, anche se nel mio caso specifico non credo si possa parlare di penalizzazione, ma magari tra qualche settimana vedrò un aumento di visitatori provenienti da motori di ricerca, chi lo sa :tongueout:. Ovviamente vi terrò aggiornati ;).

    Piuttosto la domanda è un altra: Come mai nonostante il noindex in "All in One SEO Pack", nonostante il Disallow in robots.txt e nonostante Google vedesse queste pagine come "soggette a restrinzioni" (in strumenti per il webmaster) queste pagine erano sempre e comunque nell'indice Google? I misteri di Google :lipssealed:.


  • Super User

    @xoen said:

    Piuttosto la domanda è un altra: Come mai nonostante il noindex in "All in One SEO Pack", nonostante il Disallow in robots.txt e nonostante Google vedesse queste pagine come "soggette a restrinzioni" (in strumenti per il webmaster) queste pagine erano sempre e comunque nell'indice Google? I misteri di Google :lipssealed:.

    Il noindex nella pagina non lo vede finché non scansiona la pagina, ma se c'è il disallow nel robots non può passare a scansionarla e quindi leggere di non indicizzarla più.

    Mentre riguardo al disallow, è normale che una URL (senza snippet) disabilitata dal disallow, continui ad essere mostrata nella SERP di Google (cosa invece impedita dal noindex nel robots o nella pagina) se ci sono delle pagine che continuano a linkarla, come nel tuo caso, perché a questo punto non rimuovi tutti quei links?
    Non per questa penalizzazione, ma perché butti via del PR.

    A me comunque sembra che si passi da un estremo all'altro, da tanti tags e directory a 0, io preferisco pochi e utili.


  • ModSenior

    Ciao xoen,

    concordo con Webmaster70: cosa ci puoi dire dei backlink dall'esterno ?


  • User

    Salve.
    Ho letto il thread e seguito tutte discussioni collegate.
    Mi permetto di riporprorre l'argomento in modo da avere una visione definitiva del problema.
    Vi ringrazio per l'attenzione e la pazienza.

    Credo di aver utilizzato i tag in modo barbaro (se solo avessi seguito con piu' attenzione questo forum)...
    Al momento G indicizza 506 pagine tag su 1120 totali.

    Nel mio sito ho 269 post, quindi e' evidente la presenza di contenuti duplicati,

    Al momento non ho capito se mettere in disallow la directory /tag/ è un rimedio definitivo se serve fare altro.


  • ModSenior

    Se ritieni che il tuo sito possa essere stato penalizzato per tag excess e il tuo sito è in SERP da oltre 2 mesi perché non posti in Consigli SEO e Penalizzazioni ?


  • User

    Il mio sito e' in SERP da circa 6 anni.

    Credo che oltre che penalizzazioni ci siano stati madornali errori nella gestione della SEO.
    Sto procedendo per gradi verificando l'efficacia dei passi che compio anche per imparare.
    Per questo mi serve sapere se il metodo indicato e' definitivo
    Grazie della vostra disponibilita'


  • User Attivo

    Si, per un sito di quell'età va implementato in modo definitivo per non rischiare altre penalizzazioni.


  • Super User

    Interessante! Grazie