• User Attivo

    E' bello rendersi conto che ho proprio fatto una domanda idiota! ahah 😄
    Sorry, ma essendo stato soggetto a penalizzazione di tag excess, mi sono fuso anche il cervello! 😉


  • User

    Salve a tutti.
    L'articolo è interessantissimo, temo di essere incorso in una pesante penalizzazione proprio a causa del tag excess, spero di vedere risultati apprezzabili nel periodo da voi indicato.

    Una domanda, modificare il codice mettendo un rel="nofollow" ai tag può essere di qualche aiuto?
    Anche per evitare che google poi nei webmaster tools compili una lista di url che non gli lasciamo raggiungere (ho già tutta la lista dei feed dei singoli post)


  • Moderatore

    In proposito, per approfondimenti, vorrei segnalare il post
    **
    [Video] Dal corso di web marketing experience: penalizzazioni di google sul tuo blog, ecco un piccolo suggerimento
    da ricercare su blographik . it
    **

    da leggere minuziosamente** sopratutto nei commenti** (hanno partecipato Matri, Tagliaerbe, Angelo di Veroli di Isayblog e molti altri): sembrerebbe che, oltre alla percentuale dei tag indicizzati, conti anche il "trust" del dominio.

    Credo che non indicizzando i tag con il plugin wordpress All in one SEO o con il robots.txt si eviti del tutto il problema, rinunciando tuttavia alla possibilità di posizionare i tag per keyword rilevanti. Il mio blog Geektwice.com va benone anche se non indicizza i tag


  • User Attivo

    @zackmckacken said:

    [***]

    Video utilissimo come tutte le segnalazioni di giorgio e gran bell'articolo il tuo.
    Il thrustrank conta ancora in tutte le penalizzazioni, non solo in questa e chi fa adsense sui suoi siti deve stare attendo al giudizio di google che diventa sempre meno tollerante.


  • Moderatore

    @playagain said:

    Video utilissimo come tutte le segnalazioni di giorgio e gran bell'articolo il tuo.

    Grazie, preciso solo che l'articolo è di Mirko D?Isidoro.** **Un'ultima considerazione: credo che i tag vadano utilizzati al fine di cercare di semplificare la catalogazione dei post sugli argomenti trattati, non per confondere le idee ai motori di ricerca...


  • User Attivo

    Salve a tutti, anch'io ho il "vizio" di taggare un pò troppo. Su uno di miei blog ho oltre 400 tags, però il numero di articoli è 1600.

    Secondo voi devo snellire?

    ps. Un'altra cosa, se uso il comando site: w . w . w . dominio.com/tags google restituisce principalmente le pagine tags dei social bookmarker dove ho postato... Quindi contano anche i tags inseriti nei social?


  • User Attivo

    @extrabyte said:

    ps. Un'altra cosa, se uso il comando site: w . w . w . dominio.com/tags google restituisce principalmente le pagine tags dei social bookmarker dove ho postato... Quindi contano anche i tags inseriti nei social?

    Correggo: se si ha l'accortezza di cambiare il titolo del post, le pagine che vengono restituite dalla ricerca non dovrebbero essere interpretate come contenuto duplicato o comunque ridondante.


  • User Attivo

    Ho notato che il motore di ricerca di google (quello di adsense, per capirci) utilizza spesso e volentieri le pagine tags per elencare i risultati di una ricerca. Ad esempio, se cerco nel mio blog la parola chiave "pippo", alcuni risultati sono del tipo:

    w .w .w . mioblog.com/tags/pippo

    In questo modo, se clicco su tale link mi escono tutte le pagine taggate dalla key "pippo"

    Ora, se vado ad eliminare il tag pippo, perche' in eccesso ( o a fonderlo con altri tag, utilizzando il plugin marge tag), e provo a cliccare sul link sopra, ovviamente mi esce "pagina non trovata".

    Non è quindi controproducente sfoltire i tags?


  • User Attivo

    Quando elimino un tag vado sempre a inserire un redirect 301 nel mio file .htaccess, reindirizzando gli utenti dove voglio io.


  • User Newbie

    @xoen said:

    Avevo notato questo problema, avevo anche settato l'opzione "Use noindex for Tag Archives" di All in one SEO pack per WP ma niente, il problema rimaneva.

    Ora ho creato il file robots.txt, vediamo come va, grazie mille per il video :sun:!
    Passato un mese, ancora non va, cercando su google (site:http[...]xoen.org/tag) trova ancora oltre 400 risultati, la maggior parte pagine tag.

    Il file robots.txt c'è (xoen.org/robots.txt), In strumenti per il webmaster di google sembrerebber essere preso in considerazione. Qual'è il problema? Troppo presto?


  • ModSenior

    Ciao xoen,

    se il tuo sito è in SERP da oltre 2 mesi e riscontri problemi perché non posti in Consigli SEO e Penalizzazioni ? Leggi con cura il regolamento di sezione ...


  • User

    Ho notato anche io che il semplice noindex e la modifica al robots.txt non portano ai risultati sperati.
    In google le pagine dei tag non solo continuano ad esistere ma sono addirittura le meglio posizionate del sito.
    Ora sto "aumentando" la dose aggiungendo un "noarchive", giusto per provare a vedere se ottiene qualche effetto.
    Vi riaggiorno tra qualche settimana.


  • Super User

    Alla luce di queste raccomandazioni

    googlewebmastercentral.blogspot.com/2009/10/reunifying-duplicate-content-on-your.html

    si può considerare superato quel video?


  • ModSenior

    Se applichi i punti 5 e 6 di quell'articolo ...

    In ogni caso ti assicuro che se guardi Consigli SEO e Penalizzazioni i problemi dei contenuti duplicati sono la prima cosa che guardiamo in analisi nei siti... E a oggi posso azzardare e dirti che i contenuti duplicati sono il 70% delle casistiche.

    Ti suggerisco di leggere con attenzione questa questa case history.


  • Super User

    @mister.jinx

    Si avevo letto. Volevo solo capire o discutere se e come applicare quei punti nel caso dei tag per evitare l'estremo rimedio del robots.txt.

    Ovvero la pagina
    www . dominio.it/tag/pizza
    contenente 10 articoli, che link rel canonical deve avere?

    Io non uso i tag, ma cose simili, in automatico, per esempio

    • lista parole più cercate collegati alla pagina di ricerca
    • lista dei sinonimi della parola cercata collegati alla pagina di ricerca
      ecc.

    Uso il sistema con successo e da anni, ora sto implementando sul sito i link rel canonical e ho dei dubbi su come impostarli in quelle pagine.


  • User Newbie

    Ho risolto finalmente, ed in pochissime ore :). Vi spiego come ho fatto così magari qualcun altro non perde tempo.

    A distanza di un mese e mezzo dalla modifica del file robots.txt le pagine /tag/ erano sempre presenti in SERP. Stasera prima di cena da strumenti per il webmaster di Google ho usato la funzione "Rimuovi URL" per rimuovere la directory /tag/ :figo2:.

    Nonostante lo stato della richiesta sia ancora su "In attesa" poco fa ho controllato su google e finalmente sono indicizzate solo le pagine degli articoli del mio blog! :sbav:


  • User

    Il problema, credo, fosse non quello di eliminare le pagine TAG dagli indici di Google ma far sì che non provochi penalizzazioni... Ho letto post di persone che affermavano che sono le pagine meglio posizionate...

    Tuttavia se eliminare queste pagine dagli indici di Google vuol dire perdere la penalizzazione, allora ben venga. Ma questo ce lo devi dire tu 🙂

    Io sto sperimentando il rel="tag" nei link...


  • User Newbie

    @dabbia said:

    Il problema, credo, fosse non quello di eliminare le pagine TAG dagli indici di Google ma far sì che non provochi penalizzazioni... Ho letto post di persone che affermavano che sono le pagine meglio posizionate...

    Tuttavia se eliminare queste pagine dagli indici di Google vuol dire perdere la penalizzazione, allora ben venga. Ma questo ce lo devi dire tu 🙂

    Capisco che intendi ma per un maniaco compulsivo come me era fastidioso avere in SERP tutti quei risultati "strani", preferisco che se qualcuno cerca qualcosa arrivi all'articolo più attinente alla ricerca piuttosto che ad una lista di articoli che può anche confondere. Figurati che c'erano anche le pagine della forma indirizzomioblog/page, ovvero quelle con l'n-sima pagina del blog :dull:.

    Certo l'aver eliminato questi risultati dagli indici Google salva capra e cavoli, anche se nel mio caso specifico non credo si possa parlare di penalizzazione, ma magari tra qualche settimana vedrò un aumento di visitatori provenienti da motori di ricerca, chi lo sa :tongueout:. Ovviamente vi terrò aggiornati ;).

    Piuttosto la domanda è un altra: Come mai nonostante il noindex in "All in One SEO Pack", nonostante il Disallow in robots.txt e nonostante Google vedesse queste pagine come "soggette a restrinzioni" (in strumenti per il webmaster) queste pagine erano sempre e comunque nell'indice Google? I misteri di Google :lipssealed:.


  • Super User

    @xoen said:

    Piuttosto la domanda è un altra: Come mai nonostante il noindex in "All in One SEO Pack", nonostante il Disallow in robots.txt e nonostante Google vedesse queste pagine come "soggette a restrinzioni" (in strumenti per il webmaster) queste pagine erano sempre e comunque nell'indice Google? I misteri di Google :lipssealed:.

    Il noindex nella pagina non lo vede finché non scansiona la pagina, ma se c'è il disallow nel robots non può passare a scansionarla e quindi leggere di non indicizzarla più.

    Mentre riguardo al disallow, è normale che una URL (senza snippet) disabilitata dal disallow, continui ad essere mostrata nella SERP di Google (cosa invece impedita dal noindex nel robots o nella pagina) se ci sono delle pagine che continuano a linkarla, come nel tuo caso, perché a questo punto non rimuovi tutti quei links?
    Non per questa penalizzazione, ma perché butti via del PR.

    A me comunque sembra che si passi da un estremo all'altro, da tanti tags e directory a 0, io preferisco pochi e utili.


  • ModSenior

    Ciao xoen,

    concordo con Webmaster70: cosa ci puoi dire dei backlink dall'esterno ?