• ModSenior

    Ciao kiwi, chiudo provvisoriamente il tuo thread in attesa di ricevere i dati mancanti previsti dalla scheda obbligatoria in questa sezione.
    Potrai inviare i dati a me oppure ad un altro Moderatore di questa sezione usando un messaggio privato.

    Edit: riaperto in seguito ad integrazione dati.

    Valerio Notarfrancesco


  • User Attivo

    Purtroppo le visite continuano a calare sono adesso fra le 1500 e le 2000, probabilmente sono incappato in qualche penalizzazione di Panda o Pinguino, come questa discussione, che ho letto tutta, potrebbe farmi pensare:

    giorgiotave.it/forum/google/186817-google-update-corso.html

    Inoltre per quanto riguarda i pacchetti di articoli a cui mi riferisco nel mio post precedente non credo siano colpevoli di nulla, li ho controllati uno alla volta e li ho cercati su google con il titolo e compaiono tutti alla prima posizione, qualcuno nelle prime posizioni, ma sono titoli più generici come "spazzini spaziali".

    Purtroppo ho dovuto rinunciare ai collaboratori per problemi economici e quindi dall'inizio di aprile sono di nuovo solo a scrivere. Se sono riuscito con gli articolisti e 10 articoli al giorno a mantenermi intorno alle 3000 visite, adesso le cose sono peggiorate e le visite sono precipitate ancora. Attualmente da solo riesco a pubblicare dai 2 ai 5 articoli al giorno.

    Inoltre, come ho letto nella discussione precedentemente citata, ho paura nel nuovo algoritmo di google e negli eventi legati ai link, ma come potete intuire non ho tempo per pensare a fare link building black hat. Quella che ho fatto, oltre un anno fa, era considerata buona, inserimento in 1-2 directory al giorno per un mese o due, pochi scambi link e link fra i miei siti (che ho provveduto ad eliminare). Dei social bookmarking non ho molta paura perché credo si avvalgano tutti dei link nofollow.

    Altra ipotesi, un po' stramba a dire il vero, potrebbe essere che ho parlato male di Google in varie occasioni? Tutto è iniziato con questo articolo e con gli altri che potete trovare nei pingback alla fine dello stesso. Che fra l'altro è posizionato benissimo per la key "google cattivo".

    kyweek.com/google-e-diventato-cattivo-con-le-nuove-norme-sulla-privacy/

    Ultima ipotesi è il mostro sociale Google+, può essere che tutto dipenda dal fatto che ho totalmente ignorato il social search e il tag rel"author"? Ho iserito l'altro ieri il tag autore (solo per me) sul sito associandolo al mio accoun su g+. La pagina, dove condivido tutti gli articoli, esiste da tempo ma ha solo 5 persone nelle cerchie.

    Scusate la lunghezza. Spero possiate aiutarmi e mi metto a disposizione per far diventare questo un caso di studio a 360° per tutta la community.


  • User Attivo

    Mi permetto di aggiornare con altre novità, le visite calano ancora, adesso sono intorno ai 1000-1200 unici al giorno, ho scritto a google dal webmaster tool per la riconsiderazione. Ormai non so più cosa fare, così è insostenibile e se non si riprende subito non mi resta che abbandonare l'impresa...


  • User Attivo

    Ciao Kiwi,

    Il Webmaster Tools di Google dice niente?

    Da una prima analisi un tuo grosso problema è la duplicazione interna ed esterna dei contenuti guarda questi risultati:

    http://smarturl.org/xJnJr
    http://smarturl.org/xJnJn

    prova a risolvere prima questi problemi...

    Ciao


  • User Attivo

    Non ho mai considerato un problema la duplicazione dei contenuti, per quanto riguarda siti esterni sono gli aggregatori che ripubblicano il feed, ma credo sia un problema di tutti i blog abbastanza attivi, è impossibile contattarli tutti per risolvere.

    I problemi internamente sono due: i comunicati stampa (ma come dicevo sopra sono molti i siti di settore che li pubblicano integralmente, e non solo italiani) e le pagine di archivio di wordpress, che vengono create automaticamente. Credi sia una buona cosa inserire il disallow per la directory /page/ nel robots.txt, già ho il noindex per gli archivi di categoria.

    Però se sono questi i problemi non credo siano il motivo di questa penalizzazione, il sito è online dal 2009 ed esistono da allora. Non dico che non abbiano potuto penalizzarlo ma che probabilmente non sono il motivo di questa penalizzazione.

    Il webmaster tool invece non mi segnala niente di strano, ad eccezione di 75 errori 404 e 2 errori 408.


  • User Attivo

    Ciao Kiwi

    Dovresti considerare in maniera prioritaria il problema dei contenuti duplicati, Google di anno in anno sta intervenendo in maniera più meno pesante su questo fattore e penalizza molto facilmente.

    Certo può non essere questa la causa della penalizzazione attuale (ma non nè sarei cosi sicuro) , ma intanto lavoraci, elimina il problema e man mano si vedranno gli altri eventuali problemi..

    Ciao


  • User Attivo

    Non ti ho ringraziato prima dei consigli, lo faccio adesso. Quindi secondo te come sarebbe meglio agire?

    Secondo te è giusto inserire il disallow per la directory page/ e rubriche/ nel robots.txt? C'è qualcuno che usa wordpress e l'ha fatto? Per i tag non credo mi convenga.

    Per quanto riguarda i fattori esterni credi sia il caso di uscire da liquida? Gli aggregatori minori, come per esempio newscrawler.it nell'esempio che fai sopra, li segnalo come spam?


  • Super User

    Ciao Kiwi,

    togliti da Liquida subitissimo e anche prima di subito.
    Di sicuro è uno dei motivi della penalizzazione.
    Purtroppo molti aggregatori si aggregano a Liquida e poi si aggregano di nuovo moltiplicando i duplicati degli articoli.
    A me tempo fa si era bloccata completamente l'indicizzazione dei miei siti per questo.
    Al limite con wordpress puoi usare il plugin RSS Random Customizer che permette di inserire una frase nei feed.

    Imposta i feed come riassunto e inserisci una frase all'inizio di ogni feed che rimandi al tuo sito come fonte tramite il plugin suddetto. Così se qualche aggregatore prende i feed, sono solo riassunti e hanno un link di ritorno.

    Per i tag di sicuro c'è penalizzazione.
    Vedi qui se ne parla:
    http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.html

    Lascia attive le categorie che così passano pr alle pagine e blocca quindi dal file robot i tag e tutte le pagine di archivio e quelle con le date o altre che provocano duplicati.

    Spero che i miei suggerimenti ti siano utili.


  • User Attivo

    Ciao cassiopea e grazie anche dei tuoi consigli, scusami se mi permetto di approfondire quello che hai scritto ma voglio essere sicuro di non fare grossi errori, anche se al momento ho poco da perdere e tanto da imparare. Quindi probabilmente rischierò...

    Cercherò di analizzare i punti che hai trattato nel tuo intervento.

    Togliermi da Liquida

    Ci avevo pensato già, però non ne sono convinto al 100%, ancora qualche visita da lì arriva, e poi loro aggregano siti importantissimi anche alcuni quotidiani. Devo pensarci meglio, non sono sicuro che tutti questi siti siano penalizzati per il semplice fatto di essere in liquida.

    RSS

    Ho già un plugin che inserisce il link nel feed. Fino ad ora però era alla fine dell'articolo, l'ho spostato all'inizio. Mi viene da pensare però, se Penguin penalizza i link spazzatura questo metodo non sarà controproducente?

    Per quanto riguarda spezzare il feed non mi piace l'idea, i miei lettori devono poter leggere tutto l'articolo dai loro reader, i migliori siti al mondo lasciano il feed aperto ed ho sempre criticato chi lo limita.

    Tag

    Ho letto sommariamente la discussione che linki, sul sito ci sono 470 tag circa per oltre 2200 articoli (leggermente fuori il 20%). Sono stato sempre attentissimo ai tag e li uso con molta attenzione. Inoltre vedo miei siti concorrenti in italiano (con parecchie visite più di me) che ne abusano, non penso che lo facciano per fattori SEO o meno ma perché così hanno sempre fatto e così hanno abituato i loro autori, i loro tag sono indicizzati e non sono penalizzati. Inoltre engadget.com indicizza i tag e non le categorie (come faccio io, scelta fatta all'inizio dopo i primi sentori di descrizioni e title duplicati).

    Archivi

    Sono propenso a non far indicizzare gli archivi, ma vorrei qualche altro parere e magari qualche caso reale, tornando ad engadget.com le varie pagine successive (page/) sono indicizzate.

    Scusatemi se sono così pignolo, ma voglio capire prima di agire, inoltre ho molta più fiducia in quello che vedo e in quello che ho fatto per arrivare a questi risultati che nella SEO, che come google ci ha dimostrato è una disciplina troppo "soggettiva".

    Quello che vedo è che i miei concorrenti non si sono mai interessati di SEO o altro, pensano a pubblicare contenuti e basta, quello che facevo anche io fino a 15 giorni fa...


  • User Attivo

    Ciao Kiwi, per quanto riguarda gli archivi WP io di solito gestisco così la cosa: se gli archivi sono exerpt puoi farli indicizzare, se mostrano l'articolo per interno è meglio usare noindex.

    Appoggio chi ti consigliava gli exerpt nell'RSS! non solo per contenuto duplicato, ma per visite al sito che ti perderesti a fare diversamente 🙂

    tuttavia dubito che la penalizzazione sia il contenuto duplicato. cercando su google sezioni dei tuoi post risulti sempre e comunque in prima posizione, google sa che i contenuti provengono dal tuo sito

    altra cosa...non hai forse troppi adsense in homepage? hai mai pensato che potrebbe essere questo che ti penalizza?

    infine...in tutto il primo post parli "quantitativamente" degli articoli pubblicati sul tuo sito e tralasci l'aspetto "qualitativo". 1 post ben fatto e utile vale piu di 100 scarsi, SEO parlando.
    un articolo chiamato "diario di facebook" poteva tirare mesi fa, ma ora??
    se posso darti l'ultimo consiglio, quando decidi di cosa parlare in un post e soprattutto il suo titolo, usa lo strumento per le parole chiave di adwords. una kw con combinazione di bassa concorrenza e alto numero di ricerche potrebbe essere la chiave di volta.

    tanti saluti e in bocca al wolf 🙂


  • User Attivo

    Ciao johnny, negli archivi sono mostrate solo le prime righe degli archivi, per quanto riguarda l'RSS preferisco perdere qualche centinaio di visite al giorno piuttosto che chiudere un servizio che offro ai miei lettori.

    Anche io dubito che la penalizzazione provenga dal contenuto duplicato, anche se voglio risolvere questo problema.

    Adsense? Ho 3 banner e 2 insiemi di link e nessuno di loro è ATF e sono nel numero consentito da google.

    Per gli articoli non ho solo la quantità ma anche la qualità, ho le news da 150 parole e le recensioni da 1500.

    Per quanto riguarda il caso particolare come l'articolo "diario di facebook" sono cosciente del fatto che non può più portarmi le visite di prima, infatti da 4500 a 3500 non ho pensato affatto ad una penalizzazione, e non è la prima key da 1000 visite al giorno che perdo, qualche mese fa ero posizionato con "facebook login" subito dopo facebook.

    Un altro caso specifico da citare potrebbe essere questo articolo:

    kyweek.com/htc-one-x-recensione/

    qualche settimana fa era in prima pagina per "htc one x" e nelle prime posizioni per "htc one x recensione". Adesso è in 31esima e 2a rispettivamente. Non sto peccando di superbia quando dico che non c'è un articolo dettagliato come il mio in italiano, da nessuna parte, cercate pure e fatemi sapere se lo trovate, inoltre l'ho pubblicato almeno una settimana prima degli altri siti del settore.

    Il fatto strano è che nella prima query manca addirittura il sito ufficiale HTC! Questo penalizza, oltre me naturalmente, anche la qualità delle serp di google.

    Il keywords tool "purtroppo" è il mio pane quotidiano dato che sono esperto adwords...

    ...ormai non so più cosa pensare. Ero sicuro che con questo sito stavo facendo le cose in regola, ho pensato solo alla qualità e ai contenuti, ma a quanto pare non è servito.

    - - - - - - - - - - - - - - - - - - -

    Con questo non voglio assolutamente mettere in discussione quello che dite sopra, sono preziosissimi i vostri consigli e sicuramente li seguirò nei miei prossimi progetti.

    Quello che vorrei capire è, citando un caso specifico di cui abbiamo parlato, è meglio mettere il noindex a 476 tag e far indicizzare 86 categorie fino ad ora bloccate? E' sicuro che questa operazione non faccia più danni che altro?

    In ogni caso mi sono quasi convinto a fare questo e altre operazioni che suggerite, ormai non ho più niente da perdere e male che vada avrò fatto esperienza e capito qualcosa in più per il mio prossimo progetto.


  • Super User

    Per la penalizzazione da tag excess ci sono parecchi articoli anche nel forum di assistenza da Google.
    Prova a chiedere anche lì al limite.
    Poi vedi tu come fare.
    Io ti ho data la mia opinione con fonte l'articolo e il video di GiorgioTave.
    Ciao.


  • User Attivo

    Infatti non voglio escludere niente a priori, negli interventi precedenti ho solo esposto le mie impressioni e come già detto ho apprezzato molto i vostri consigli.

    Infatti ho anche fatto le prime modifiche, ho impostato il noindex per i tag. Vediamo come evolve la situazione ma dubito sia questo il motivo, magari ne trarrò vantaggio comunque.


  • User Attivo

    Sto continuando a cercare motivazioni per la penalizzazione, fra gli errori html ho delle descrizioni e dei title duplicati, sono pochi in confronto ai contenuti ma meglio provvedere. Per alcune pagine è sufficiente lavorare con il robots.txt ma per altre no.

    In particolare volevo farvi un esempio:
    forum/applicazioni-android/
    forum/applicazioni-android/?sort=subject
    forum/applicazioni-android/?sort=subject;desc
    forum/applicazioni-android/?sort=views
    forum/applicazioni-android/?sort=views;desc

    la pagina da indicizzare in questo caso è una ma come vedete i parametri nelle url creano pagine duplicate. Come posso agire in questo caso?


  • User Attivo

    Ciao Kiwi,

    Usa il canonical, che in questi casi è la soluzione migliore, in modo che indichi tu a Google qual è url canonico.

    Qui troverai un po di info http: //support.google.com/webmasters/bin/answer.py?hl=it&answer=139394

    Ciao


  • User Attivo

    Ciao Marco, ti ringrazio per il consiglio, fortunatamente sono riuscito a trovare una mod per SMF che ha risolto il problema in maniera molto semplice, adesso mi rimane il problema di qualche meta descrizione breve da risolvere ma non è questa la discussione adatta dato che si tratta di roba tecnica.

    Ricapitolando:

    ho specificato nel robots.txt di non indicizzare tag e archivi
    sto sistemando gli errori html che mi segnala nel wt

    nel frattempo mi sto accorgendo che mi linkano alcuni siti strani di social bookmarking, dal wt mi sono accorto di 2-3 domini che mi mandano parecchi link, come posso muovermi in questi casi dato che non ho controllo su questi link?


  • User Attivo

    Aggiornamento:

    hanno risposto alla mia richiesta di riconsiderazione dal wmt dicendo che il sito non è affetto da nessuna penalizzazione con "intervento manuale webspam".

    Quindi si tratta di una penalizzazione algoritmica, spero di riucire ad uscirne...

    Intanto almeno una notizia positiva, il crollo delle visite si è assestato adesso il traffico è stabile da qualche giorno intorno alle 1000 al giorno.


  • User Attivo

    La scorsa settimana ho recuperato delle posizioni, ero risalito a 1500 visite al giorno ma poi dopo qualche giorno sono sceso di nuovo a 1000.

    Un altro dubbio che mi viene è la velocità di caricamento, purtroppo credo che il server attualmente non sia all'altezza, volevo passare ad un server dedicato già da qualche mese ma attualmente non posso affrontare l'investimento.

    Ho installato il plugin W3 Total Cache per vedere se le conse migliorano.

    Attualmente non so cosa altro fare... forse l'unico modo è tornare a scrivere 10 articoli al giorno..


  • User

    Ciao..

    Io in situazioni simili, anche se su siti da volumi minori, sono riuscito a farmi riconsiderare con l'ausilio di parecchi link di qualità, da siti Trustati. Hai provato una soluzione di questo tipo?