• User Attivo

    Ciao Kiwi, per quanto riguarda gli archivi WP io di solito gestisco così la cosa: se gli archivi sono exerpt puoi farli indicizzare, se mostrano l'articolo per interno è meglio usare noindex.

    Appoggio chi ti consigliava gli exerpt nell'RSS! non solo per contenuto duplicato, ma per visite al sito che ti perderesti a fare diversamente 🙂

    tuttavia dubito che la penalizzazione sia il contenuto duplicato. cercando su google sezioni dei tuoi post risulti sempre e comunque in prima posizione, google sa che i contenuti provengono dal tuo sito

    altra cosa...non hai forse troppi adsense in homepage? hai mai pensato che potrebbe essere questo che ti penalizza?

    infine...in tutto il primo post parli "quantitativamente" degli articoli pubblicati sul tuo sito e tralasci l'aspetto "qualitativo". 1 post ben fatto e utile vale piu di 100 scarsi, SEO parlando.
    un articolo chiamato "diario di facebook" poteva tirare mesi fa, ma ora??
    se posso darti l'ultimo consiglio, quando decidi di cosa parlare in un post e soprattutto il suo titolo, usa lo strumento per le parole chiave di adwords. una kw con combinazione di bassa concorrenza e alto numero di ricerche potrebbe essere la chiave di volta.

    tanti saluti e in bocca al wolf 🙂


  • User Attivo

    Ciao johnny, negli archivi sono mostrate solo le prime righe degli archivi, per quanto riguarda l'RSS preferisco perdere qualche centinaio di visite al giorno piuttosto che chiudere un servizio che offro ai miei lettori.

    Anche io dubito che la penalizzazione provenga dal contenuto duplicato, anche se voglio risolvere questo problema.

    Adsense? Ho 3 banner e 2 insiemi di link e nessuno di loro è ATF e sono nel numero consentito da google.

    Per gli articoli non ho solo la quantità ma anche la qualità, ho le news da 150 parole e le recensioni da 1500.

    Per quanto riguarda il caso particolare come l'articolo "diario di facebook" sono cosciente del fatto che non può più portarmi le visite di prima, infatti da 4500 a 3500 non ho pensato affatto ad una penalizzazione, e non è la prima key da 1000 visite al giorno che perdo, qualche mese fa ero posizionato con "facebook login" subito dopo facebook.

    Un altro caso specifico da citare potrebbe essere questo articolo:

    kyweek.com/htc-one-x-recensione/

    qualche settimana fa era in prima pagina per "htc one x" e nelle prime posizioni per "htc one x recensione". Adesso è in 31esima e 2a rispettivamente. Non sto peccando di superbia quando dico che non c'è un articolo dettagliato come il mio in italiano, da nessuna parte, cercate pure e fatemi sapere se lo trovate, inoltre l'ho pubblicato almeno una settimana prima degli altri siti del settore.

    Il fatto strano è che nella prima query manca addirittura il sito ufficiale HTC! Questo penalizza, oltre me naturalmente, anche la qualità delle serp di google.

    Il keywords tool "purtroppo" è il mio pane quotidiano dato che sono esperto adwords...

    ...ormai non so più cosa pensare. Ero sicuro che con questo sito stavo facendo le cose in regola, ho pensato solo alla qualità e ai contenuti, ma a quanto pare non è servito.

    - - - - - - - - - - - - - - - - - - -

    Con questo non voglio assolutamente mettere in discussione quello che dite sopra, sono preziosissimi i vostri consigli e sicuramente li seguirò nei miei prossimi progetti.

    Quello che vorrei capire è, citando un caso specifico di cui abbiamo parlato, è meglio mettere il noindex a 476 tag e far indicizzare 86 categorie fino ad ora bloccate? E' sicuro che questa operazione non faccia più danni che altro?

    In ogni caso mi sono quasi convinto a fare questo e altre operazioni che suggerite, ormai non ho più niente da perdere e male che vada avrò fatto esperienza e capito qualcosa in più per il mio prossimo progetto.


  • Super User

    Per la penalizzazione da tag excess ci sono parecchi articoli anche nel forum di assistenza da Google.
    Prova a chiedere anche lì al limite.
    Poi vedi tu come fare.
    Io ti ho data la mia opinione con fonte l'articolo e il video di GiorgioTave.
    Ciao.


  • User Attivo

    Infatti non voglio escludere niente a priori, negli interventi precedenti ho solo esposto le mie impressioni e come già detto ho apprezzato molto i vostri consigli.

    Infatti ho anche fatto le prime modifiche, ho impostato il noindex per i tag. Vediamo come evolve la situazione ma dubito sia questo il motivo, magari ne trarrò vantaggio comunque.


  • User Attivo

    Sto continuando a cercare motivazioni per la penalizzazione, fra gli errori html ho delle descrizioni e dei title duplicati, sono pochi in confronto ai contenuti ma meglio provvedere. Per alcune pagine è sufficiente lavorare con il robots.txt ma per altre no.

    In particolare volevo farvi un esempio:
    forum/applicazioni-android/
    forum/applicazioni-android/?sort=subject
    forum/applicazioni-android/?sort=subject;desc
    forum/applicazioni-android/?sort=views
    forum/applicazioni-android/?sort=views;desc

    la pagina da indicizzare in questo caso è una ma come vedete i parametri nelle url creano pagine duplicate. Come posso agire in questo caso?


  • User Attivo

    Ciao Kiwi,

    Usa il canonical, che in questi casi è la soluzione migliore, in modo che indichi tu a Google qual è url canonico.

    Qui troverai un po di info http: //support.google.com/webmasters/bin/answer.py?hl=it&answer=139394

    Ciao


  • User Attivo

    Ciao Marco, ti ringrazio per il consiglio, fortunatamente sono riuscito a trovare una mod per SMF che ha risolto il problema in maniera molto semplice, adesso mi rimane il problema di qualche meta descrizione breve da risolvere ma non è questa la discussione adatta dato che si tratta di roba tecnica.

    Ricapitolando:

    ho specificato nel robots.txt di non indicizzare tag e archivi
    sto sistemando gli errori html che mi segnala nel wt

    nel frattempo mi sto accorgendo che mi linkano alcuni siti strani di social bookmarking, dal wt mi sono accorto di 2-3 domini che mi mandano parecchi link, come posso muovermi in questi casi dato che non ho controllo su questi link?


  • User Attivo

    Aggiornamento:

    hanno risposto alla mia richiesta di riconsiderazione dal wmt dicendo che il sito non è affetto da nessuna penalizzazione con "intervento manuale webspam".

    Quindi si tratta di una penalizzazione algoritmica, spero di riucire ad uscirne...

    Intanto almeno una notizia positiva, il crollo delle visite si è assestato adesso il traffico è stabile da qualche giorno intorno alle 1000 al giorno.


  • User Attivo

    La scorsa settimana ho recuperato delle posizioni, ero risalito a 1500 visite al giorno ma poi dopo qualche giorno sono sceso di nuovo a 1000.

    Un altro dubbio che mi viene è la velocità di caricamento, purtroppo credo che il server attualmente non sia all'altezza, volevo passare ad un server dedicato già da qualche mese ma attualmente non posso affrontare l'investimento.

    Ho installato il plugin W3 Total Cache per vedere se le conse migliorano.

    Attualmente non so cosa altro fare... forse l'unico modo è tornare a scrivere 10 articoli al giorno..


  • User

    Ciao..

    Io in situazioni simili, anche se su siti da volumi minori, sono riuscito a farmi riconsiderare con l'ausilio di parecchi link di qualità, da siti Trustati. Hai provato una soluzione di questo tipo?