• User

    Il mio blog è penalizzato?

    Ciao ragazzi, ho il sospetto che il mio blog sia un pò penalizzato.
    Gli articoli in esso contenuti (riguardanti moto di una famosa marca inglese) sono sempre scritti di mio pugno, senza mai copiare nessun altro blog, wordpress è ottimizzato in tutto senza eccessi, però nonostante la grande quantità di articoli presenti (circa 300) e la costanza di aggiornamenti (un nuovo articolo ogni 3-5 giorni) non dà grandissimi risultati: siamo sulle 3-400 visite giornaliere, molte delle quali arrivano dagli altri miei siti dove il blog è linkato.

    Questo potrebbe essere dato dalla limitata diversità delle parole chiavi dei vari articoli (in fondo si parla sempre di un modello di moto o di un altro) ma ho il sospetto che ci sia dell' altro.

    Tempo fà infatti ho notato che alcune mail che inviavo con un indirizzo diverso dal dominio del blog ma contenenti il link al blog stesso venivano marchiate come SPAM: il fenomeno è scomparso eliminando i link dalle mail...

    Non vorrei quindi che l' hosting su cui è ospitato il blog (credo sia americano) sia in qualche modo visto come spammoso e quindi penalizzato.

    D'altra parte spessissimo il blog si posizione nelle prime posizioni delle serp, quindi non so bene cosa pensare...

    Chi mi da una mano?<br /><b>Dominio</b>: <br />blogtriumphchepassione.com/triumph/<br /><br /><b>Motori</b>: <br />Google<br /><br /><b>Prima indicizzazione o attività</b>: <br />2009<br /><br /><b>Cambiamenti effettuati</b>: <br />nulla<br /><br /><b>Eventi legati ai link</b>: <br />non so<br /><br /><b>Sito realizzato con</b>: <br />wordpress<br /><br /><b>Come ho aumentato la popolarità</b>: <br />backlink<br /><br /><b>Chiavi</b>: <br />triumph, vari modelli<br /><br /><b>Sitemaps</b>: <br /> No<br />


  • Moderatore

    Ciao marcomanila,

    Qualcosa che non torna, probabilmente c'è.

    Controlla la duplicazione interna cominciando ad eliminare le pagine tag (da quando il video è stato fatto il comando site: è diventato meno affidabile, puoi comunque sapere in altri modi quante pagine tag hai e quanti articoli).

    Altri problemi mi sembrano adesso molto meno probabili.

    Spero che altri possano dire la loro e che tu voglia farci sapere come procede la situazione. Se tra una decina di giorni non noti miglioramenti, posta ancora.

    Buon lavoro!


  • User

    In effetti credo proprio che si tratti di questo: il blog ha oltre 300 articoli ma oltre 600 tag!!!!!

    Faccio la modifica e poi vediamo se funziona.

    Per adesso grazie.


  • User

    Aggiornamento: ho caricato il robot.txt con l' istruzione

    User-agent: *
    Disallow: /tag/

    Ho però scoperto che nel "All in one Seo pack" installato c'è una funzione apposita: la lascio stare o attivo anche quella?

    Si chiama: Use noindex for Tag Archives


  • User

    Doppio invio, pardon.


  • Moderatore

    Assieme sono ridondanti: il robots.txt inibisce l'accesso del crawler alla pagina quindi qualsiasi cosa tu ci scriva (compreso il metatag noindex) non verrà letto.

    Puoi implementare il "noindex, follow" al posto della riga sul robots.txt: in questo caso le pagine verranno visitate, i link presenti all'interno di queste seguiti ma non appariranno pagine tag nei risultati di ricerca e non saranno considerate duplicati.

    Quale strategia attuare dipende molto dalla struttura del sito: preferisci che Googlebot usi risorse per entrare in pagine che non indicizzerà per poi seguire i link presenti (presumibilmente verso i post più vecchi) oppure che quelle risorse si riversino sugli altri link del sito, senza l'accesso alle pagine tag? Valuta (senza aspettarti grosse differenze).


  • User

    Dopo oltre un mese di attesa con il solo robot.txt non ho avuto benefici, i tag indicizzati sono rimasti al loro posto.

    Ho quindi eliminato il robot.txt ed attivato la funzione apposita presente in "All in one Seo pack" descritta come "Use noindex for Tag Archives": sono passate 2 settimane e ancora tutto è come prima, blog penalizzato dal tag excess e visite scarsine nonostante le tante pagine.

    Altri suggerimenti?


  • User

    @marcomanila said:

    Dopo oltre un mese di attesa con il solo robot.txt non ho avuto benefici, i tag indicizzati sono rimasti al loro posto.
    Altri suggerimenti?

    Non so se e' la soluzione corretta, ma e' quella che ho utilizzato io per risolvere un problema di tag excess.

    Rimetti il robotx.txt con il disallow della directory /tag/
    e, da strumenti per webmaster, cancella tutta la directory tag
    Ci mette una nottata e sparisce tutto


  • User

    ...E come si fa a cancellare la directory tag da strumenti per webmaster???


  • User

    "Rimuovi url" e metti direttamente la directory che hai gia' bloccato con robots.txt


  • User

    Ok, trovata!

    Ho fatto come mi hai suggerito, adesso vedo cosa succede.

    Ho anche notato che ci sono altri problemi sul blog:

    Tag title duplicati 142
    Meta descrizioni duplicate 45

    Questo perchè probabilmente vanno bloccate altre indicizzazioni, come quella per le pagine e le categorie, che generano contenuti che posssono sembrare duplicati.
    Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.


  • User

    Ok, trovata!

    Ho fatto come mi hai suggerito, adesso vedo cosa succede.

    Ho anche notato che ci sono altri problemi sul blog:

    Tag title duplicati 142
    Meta descrizioni duplicate 45

    Questo perchè probabilmente vanno bloccate altre indicizzazioni, come quella per le pagine e le categorie, che generano contenuti che posssono sembrare duplicati.
    Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.


  • User

    @marcomanila said:

    Tag title duplicati 142
    Meta descrizioni duplicate 45

    Vedo come reagisce google all' eliminazione dei tag dall' indice, poi magari blocco anche le altre cose.

    Infatti, aspetta e vedi
    Io ho tolto gli archivi mensili, l'indicizzazione delle categorie e dopo ho lavorato sul resto.
    credo si debba anche controllare il rapporto tra indicizzati ed effettivi. Ma questo dopo aver fatto pulizia