- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Come capire se il sito è penalizzato o è vittima di "altalenanze" naturali?
-
Mi permetto di aggiornare con altre novità, le visite calano ancora, adesso sono intorno ai 1000-1200 unici al giorno, ho scritto a google dal webmaster tool per la riconsiderazione. Ormai non so più cosa fare, così è insostenibile e se non si riprende subito non mi resta che abbandonare l'impresa...
-
Ciao Kiwi,
Il Webmaster Tools di Google dice niente?
Da una prima analisi un tuo grosso problema è la duplicazione interna ed esterna dei contenuti guarda questi risultati:
http://smarturl.org/xJnJr
http://smarturl.org/xJnJnprova a risolvere prima questi problemi...
Ciao
-
Non ho mai considerato un problema la duplicazione dei contenuti, per quanto riguarda siti esterni sono gli aggregatori che ripubblicano il feed, ma credo sia un problema di tutti i blog abbastanza attivi, è impossibile contattarli tutti per risolvere.
I problemi internamente sono due: i comunicati stampa (ma come dicevo sopra sono molti i siti di settore che li pubblicano integralmente, e non solo italiani) e le pagine di archivio di wordpress, che vengono create automaticamente. Credi sia una buona cosa inserire il disallow per la directory /page/ nel robots.txt, già ho il noindex per gli archivi di categoria.
Però se sono questi i problemi non credo siano il motivo di questa penalizzazione, il sito è online dal 2009 ed esistono da allora. Non dico che non abbiano potuto penalizzarlo ma che probabilmente non sono il motivo di questa penalizzazione.
Il webmaster tool invece non mi segnala niente di strano, ad eccezione di 75 errori 404 e 2 errori 408.
-
Ciao Kiwi
Dovresti considerare in maniera prioritaria il problema dei contenuti duplicati, Google di anno in anno sta intervenendo in maniera più meno pesante su questo fattore e penalizza molto facilmente.
Certo può non essere questa la causa della penalizzazione attuale (ma non nè sarei cosi sicuro) , ma intanto lavoraci, elimina il problema e man mano si vedranno gli altri eventuali problemi..
Ciao
-
Non ti ho ringraziato prima dei consigli, lo faccio adesso. Quindi secondo te come sarebbe meglio agire?
Secondo te è giusto inserire il disallow per la directory page/ e rubriche/ nel robots.txt? C'è qualcuno che usa wordpress e l'ha fatto? Per i tag non credo mi convenga.
Per quanto riguarda i fattori esterni credi sia il caso di uscire da liquida? Gli aggregatori minori, come per esempio newscrawler.it nell'esempio che fai sopra, li segnalo come spam?
-
Ciao Kiwi,
togliti da Liquida subitissimo e anche prima di subito.
Di sicuro è uno dei motivi della penalizzazione.
Purtroppo molti aggregatori si aggregano a Liquida e poi si aggregano di nuovo moltiplicando i duplicati degli articoli.
A me tempo fa si era bloccata completamente l'indicizzazione dei miei siti per questo.
Al limite con wordpress puoi usare il plugin RSS Random Customizer che permette di inserire una frase nei feed.Imposta i feed come riassunto e inserisci una frase all'inizio di ogni feed che rimandi al tuo sito come fonte tramite il plugin suddetto. Così se qualche aggregatore prende i feed, sono solo riassunti e hanno un link di ritorno.
Per i tag di sicuro c'è penalizzazione.
Vedi qui se ne parla:
http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.htmlLascia attive le categorie che così passano pr alle pagine e blocca quindi dal file robot i tag e tutte le pagine di archivio e quelle con le date o altre che provocano duplicati.
Spero che i miei suggerimenti ti siano utili.
-
Ciao cassiopea e grazie anche dei tuoi consigli, scusami se mi permetto di approfondire quello che hai scritto ma voglio essere sicuro di non fare grossi errori, anche se al momento ho poco da perdere e tanto da imparare. Quindi probabilmente rischierò...
Cercherò di analizzare i punti che hai trattato nel tuo intervento.
Togliermi da Liquida
Ci avevo pensato già, però non ne sono convinto al 100%, ancora qualche visita da lì arriva, e poi loro aggregano siti importantissimi anche alcuni quotidiani. Devo pensarci meglio, non sono sicuro che tutti questi siti siano penalizzati per il semplice fatto di essere in liquida.
RSS
Ho già un plugin che inserisce il link nel feed. Fino ad ora però era alla fine dell'articolo, l'ho spostato all'inizio. Mi viene da pensare però, se Penguin penalizza i link spazzatura questo metodo non sarà controproducente?
Per quanto riguarda spezzare il feed non mi piace l'idea, i miei lettori devono poter leggere tutto l'articolo dai loro reader, i migliori siti al mondo lasciano il feed aperto ed ho sempre criticato chi lo limita.
Tag
Ho letto sommariamente la discussione che linki, sul sito ci sono 470 tag circa per oltre 2200 articoli (leggermente fuori il 20%). Sono stato sempre attentissimo ai tag e li uso con molta attenzione. Inoltre vedo miei siti concorrenti in italiano (con parecchie visite più di me) che ne abusano, non penso che lo facciano per fattori SEO o meno ma perché così hanno sempre fatto e così hanno abituato i loro autori, i loro tag sono indicizzati e non sono penalizzati. Inoltre engadget.com indicizza i tag e non le categorie (come faccio io, scelta fatta all'inizio dopo i primi sentori di descrizioni e title duplicati).
Archivi
Sono propenso a non far indicizzare gli archivi, ma vorrei qualche altro parere e magari qualche caso reale, tornando ad engadget.com le varie pagine successive (page/) sono indicizzate.
Scusatemi se sono così pignolo, ma voglio capire prima di agire, inoltre ho molta più fiducia in quello che vedo e in quello che ho fatto per arrivare a questi risultati che nella SEO, che come google ci ha dimostrato è una disciplina troppo "soggettiva".
Quello che vedo è che i miei concorrenti non si sono mai interessati di SEO o altro, pensano a pubblicare contenuti e basta, quello che facevo anche io fino a 15 giorni fa...
-
Ciao Kiwi, per quanto riguarda gli archivi WP io di solito gestisco così la cosa: se gli archivi sono exerpt puoi farli indicizzare, se mostrano l'articolo per interno è meglio usare noindex.
Appoggio chi ti consigliava gli exerpt nell'RSS! non solo per contenuto duplicato, ma per visite al sito che ti perderesti a fare diversamente
tuttavia dubito che la penalizzazione sia il contenuto duplicato. cercando su google sezioni dei tuoi post risulti sempre e comunque in prima posizione, google sa che i contenuti provengono dal tuo sito
altra cosa...non hai forse troppi adsense in homepage? hai mai pensato che potrebbe essere questo che ti penalizza?
infine...in tutto il primo post parli "quantitativamente" degli articoli pubblicati sul tuo sito e tralasci l'aspetto "qualitativo". 1 post ben fatto e utile vale piu di 100 scarsi, SEO parlando.
un articolo chiamato "diario di facebook" poteva tirare mesi fa, ma ora??
se posso darti l'ultimo consiglio, quando decidi di cosa parlare in un post e soprattutto il suo titolo, usa lo strumento per le parole chiave di adwords. una kw con combinazione di bassa concorrenza e alto numero di ricerche potrebbe essere la chiave di volta.tanti saluti e in bocca al wolf
-
Ciao johnny, negli archivi sono mostrate solo le prime righe degli archivi, per quanto riguarda l'RSS preferisco perdere qualche centinaio di visite al giorno piuttosto che chiudere un servizio che offro ai miei lettori.
Anche io dubito che la penalizzazione provenga dal contenuto duplicato, anche se voglio risolvere questo problema.
Adsense? Ho 3 banner e 2 insiemi di link e nessuno di loro è ATF e sono nel numero consentito da google.
Per gli articoli non ho solo la quantità ma anche la qualità, ho le news da 150 parole e le recensioni da 1500.
Per quanto riguarda il caso particolare come l'articolo "diario di facebook" sono cosciente del fatto che non può più portarmi le visite di prima, infatti da 4500 a 3500 non ho pensato affatto ad una penalizzazione, e non è la prima key da 1000 visite al giorno che perdo, qualche mese fa ero posizionato con "facebook login" subito dopo facebook.
Un altro caso specifico da citare potrebbe essere questo articolo:
kyweek.com/htc-one-x-recensione/
qualche settimana fa era in prima pagina per "htc one x" e nelle prime posizioni per "htc one x recensione". Adesso è in 31esima e 2a rispettivamente. Non sto peccando di superbia quando dico che non c'è un articolo dettagliato come il mio in italiano, da nessuna parte, cercate pure e fatemi sapere se lo trovate, inoltre l'ho pubblicato almeno una settimana prima degli altri siti del settore.
Il fatto strano è che nella prima query manca addirittura il sito ufficiale HTC! Questo penalizza, oltre me naturalmente, anche la qualità delle serp di google.
Il keywords tool "purtroppo" è il mio pane quotidiano dato che sono esperto adwords...
...ormai non so più cosa pensare. Ero sicuro che con questo sito stavo facendo le cose in regola, ho pensato solo alla qualità e ai contenuti, ma a quanto pare non è servito.
- - - - - - - - - - - - - - - - - - -
Con questo non voglio assolutamente mettere in discussione quello che dite sopra, sono preziosissimi i vostri consigli e sicuramente li seguirò nei miei prossimi progetti.
Quello che vorrei capire è, citando un caso specifico di cui abbiamo parlato, è meglio mettere il noindex a 476 tag e far indicizzare 86 categorie fino ad ora bloccate? E' sicuro che questa operazione non faccia più danni che altro?
In ogni caso mi sono quasi convinto a fare questo e altre operazioni che suggerite, ormai non ho più niente da perdere e male che vada avrò fatto esperienza e capito qualcosa in più per il mio prossimo progetto.
-
Per la penalizzazione da tag excess ci sono parecchi articoli anche nel forum di assistenza da Google.
Prova a chiedere anche lì al limite.
Poi vedi tu come fare.
Io ti ho data la mia opinione con fonte l'articolo e il video di GiorgioTave.
Ciao.
-
Infatti non voglio escludere niente a priori, negli interventi precedenti ho solo esposto le mie impressioni e come già detto ho apprezzato molto i vostri consigli.
Infatti ho anche fatto le prime modifiche, ho impostato il noindex per i tag. Vediamo come evolve la situazione ma dubito sia questo il motivo, magari ne trarrò vantaggio comunque.
-
Sto continuando a cercare motivazioni per la penalizzazione, fra gli errori html ho delle descrizioni e dei title duplicati, sono pochi in confronto ai contenuti ma meglio provvedere. Per alcune pagine è sufficiente lavorare con il robots.txt ma per altre no.
In particolare volevo farvi un esempio:
forum/applicazioni-android/
forum/applicazioni-android/?sort=subject
forum/applicazioni-android/?sort=subject;desc
forum/applicazioni-android/?sort=views
forum/applicazioni-android/?sort=views;descla pagina da indicizzare in questo caso è una ma come vedete i parametri nelle url creano pagine duplicate. Come posso agire in questo caso?
-
Ciao Kiwi,
Usa il canonical, che in questi casi è la soluzione migliore, in modo che indichi tu a Google qual è url canonico.
Qui troverai un po di info http: //support.google.com/webmasters/bin/answer.py?hl=it&answer=139394
Ciao
-
Ciao Marco, ti ringrazio per il consiglio, fortunatamente sono riuscito a trovare una mod per SMF che ha risolto il problema in maniera molto semplice, adesso mi rimane il problema di qualche meta descrizione breve da risolvere ma non è questa la discussione adatta dato che si tratta di roba tecnica.
Ricapitolando:
ho specificato nel robots.txt di non indicizzare tag e archivi
sto sistemando gli errori html che mi segnala nel wtnel frattempo mi sto accorgendo che mi linkano alcuni siti strani di social bookmarking, dal wt mi sono accorto di 2-3 domini che mi mandano parecchi link, come posso muovermi in questi casi dato che non ho controllo su questi link?
-
Aggiornamento:
hanno risposto alla mia richiesta di riconsiderazione dal wmt dicendo che il sito non è affetto da nessuna penalizzazione con "intervento manuale webspam".
Quindi si tratta di una penalizzazione algoritmica, spero di riucire ad uscirne...
Intanto almeno una notizia positiva, il crollo delle visite si è assestato adesso il traffico è stabile da qualche giorno intorno alle 1000 al giorno.
-
La scorsa settimana ho recuperato delle posizioni, ero risalito a 1500 visite al giorno ma poi dopo qualche giorno sono sceso di nuovo a 1000.
Un altro dubbio che mi viene è la velocità di caricamento, purtroppo credo che il server attualmente non sia all'altezza, volevo passare ad un server dedicato già da qualche mese ma attualmente non posso affrontare l'investimento.
Ho installato il plugin W3 Total Cache per vedere se le conse migliorano.
Attualmente non so cosa altro fare... forse l'unico modo è tornare a scrivere 10 articoli al giorno..
-
Ciao..
Io in situazioni simili, anche se su siti da volumi minori, sono riuscito a farmi riconsiderare con l'ausilio di parecchi link di qualità, da siti Trustati. Hai provato una soluzione di questo tipo?