- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Da 600~700 a 211 visite da google al giorno; penalizzazione o dominio giovane?
-
Capisco, ma è una situazione che si verifica anche per molti altri blog... purtroppo.
-
Da ieri sera la situazione sembra essere tornata normale!
I domini di III livello sono tornati visibili, e gli articoli del mio blog hanno superato gli aggregatori online.
Solo una cosa: oggi, dopo aver resettato il router (e quindi indirizzo IP) sono tornati i risultati di due giorni fa (non solo per quanto riguardava i miei risultati, ma anche quelli appartenenti ad altri siti). Provando con un altro datacenter, comunque, i risultati sono di nuovo quelli di ieri sera (ho fatto la prova cercando "password eee pc").
Posso cominciare a sperare?
-
Aggiornamento: le visite sono tornate alla normalità, anzi, quasi raddoppiate nell'ultima settimana: flickr.com/photos/notoriousxl/2704524312/
(anche se da 3 giorni sono scese a circa 900 al giorno).Continuo a notare un problema con il posizionamento dei nuovi articoli, però; i primi giorni si posizionano bene, sia quando compare la scritta "tot ore fa" nelle serp, sia quando questa scompare. Poi, però, spariscono (al limite compare la home del sito, perché le parole chiave stanno negli "ultimi articoli"). Le pagine sono comunque indicizzate, anzi, nella ricerca interna con site: sono in prima posizione.
Un esempio: cercando "quale eee pc scegliere" compare prima un aggregatore (linuxfeed) e poi il mio sito (che non riporta comunque l'articolo cercato). È ancora un problema di basso trust, o c'è dell'altro?
-
Ci potrebbe essere un pizzico di effetto megamenu, però è strano perchè di solito si manifesta per pagine web con molti link magari disposti in lunghe liste di menu verticali e non mi pare che sia calzantissimo con il tuo caso.
La soglia "limite" consigliata da Google è di 100 link per pagina ma se sono un 30% è comunque meglio da test condotti.
-
@mister.jinx said:
Ci potrebbe essere un pizzico di effetto megamenu, però è strano perchè di solito si manifesta per pagine web con molti link magari disposti in lunghe liste di menu verticali e non mi pare che sia calzantissimo con il tuo caso.
La penalizzazione megamenu viene fatta scattare dalla sola home page o si applica pagina per pagina? Perché la home è quella che ha più link (riporto la "top 20 tag cloud" e i tag per ogni articolo), ma le pagine interne non ne hanno molti: nella sidebar ho rimosso categorie, tag cloud e ultimi post, e il menu di navigazione delle pagine statiche, in puro html, si espande solo dove necessario.
Ad esempio questa pagina, che è piuttosto ricca di link, ha un totale di 70 link: technoburger.net/guide/eee-pc
Questa "penalizzazione" non sembra affliggere i post più vecchi (almeno, il post compare in serp); ad esempio, questo è il post n° 6, a pagina 2 (che è ancora penalizzato, superato anche dalla home page dello stesso blog):
(e infatti, cercando "float drop bug" compare il bloggatore)
Mentre il post n°7 compare:
(e infatti, cercando "eee pc 3g", degli aggregatori non c'è traccia)
Se serve qualche dato, chiedete pure, uso sia Google Webmaster Tools che Analytics
-
Da cosa ho visto personalmente megamenu non è una vera e propria penalizzazione ma piuttosto un effetto sgradito generalizzato su tutto un sito. Google fa uscire una pagina del tuo sito DIVERSA da quella che ti aspetteresti e che hai ottimizzato per una keyword specifica.
-
Quindi mi consiglieresti di rimuovere le tag da sotto ogni articolo, nelle pagine archivio? (home page, categorie, etc...)
-
Alla data di oggi, il problema non è ancora sparito: i nuovi post vengono indicizzati, ma compaiono in SERP per parecchio tempo dopo la pubblicazione - sono visibili solo aggiungendo site:technoburger.net
Ultimamente, anche una pagina "storica" ha subito lo stesso trattamento.
Ne ho parlato più comodamente qui
notorious.giorgiotave.it/blog/192-Posizionamento-nei-Motori-di-ricerca/173-Problema-coi-nuovi-post%3A-si-indicizzano-ma-non-si-posizionano/dove ho inserito i vari link alle ricerche di esempio.
È alquanto frustrante vedere i propri contenuti apparire effettivamente in SERP dopo parecchie settimane... la situazione va tutta a vantaggio degli aggregatori online. Soprattutto perché non capisco il problema (il redirect è stato fatto ormai a maggio)
-
Ottimo il riepilogo sul tuo blog.
@notorious said:
Sitemaps:
SiMi puoi descrivere meglio la Google Sitemaps come è gestita? come hai creato i file?
Condividendo quanto detto da Dechigno ("Google deve capire se quel dominio così giovane è affidabile come prima oppure no") e Mister.jinx ("Da cosa ho visto personalmente megamenu non è una vera e propria penalizzazione ma piuttosto un effetto sgradito generalizzato su tutto un sito"), mi stavo chiedendo se potevi fare un test:
Crea un nuovo articolo e non sottoporlo a nessun aggregatore. (Perchè di solito li sottoponi o prendono il tutto in automatico?).
-
Per la Sitemap uso il plugin di Wordpress wordpress.org/extend/plugins/google-sitemap-generator/
Se vuoi domani ti dico come l'ho impostato (ho cambiato un po' le frequenze rispetto a quelle di default).
Gli aggregatori leggono il feed - posso escludere comunque una categoria coi parametri del feed di Wordpress, e quindi impedire ad un post di venire ripubblicato. Col prossimo post ci provo.
Anche se... mi sembra di aver visto lo stesso comportamento con le pagine statiche (che non compaiono nel feed), che a volte segnalo con un post, e che quindi si prendono un sacco di link dai vari aggregatori.
Aggiungo (mi sono sempre dimenticato di dirlo): ho modificato un po' il feed di wordpress:
- riporto gli articoli fino al tag more (meglio riportare l'optional excerpt?)
- ho inserito, oltre agli "articoli correlati", anche altri link ad alcune sezioni e sotto domini del mio sito, in modo da ricevere dei backlink ogni volta che qualche aggregatore mi ripubblica (e sfruttarli un po').
Puoi vedere il feed su technoburger.net/feed/ , mentre un esempio di riaggregazione lo trovi su:
bongolinux.com/nuova-guida-colore-nelle-formule-di-openoffice/25/ - inserisco la stringa a7j8e25s4hb5dwt8 in modo da "firmare" gli articoli ripubblicati e renderli facilmente rintracciabili tramite motori di ricerca
Spero non sia questo il problema (anche se, e sono abbastanza sicuro, il problema è comparso prima che modificassi il feed).
Mi sono accorto di un'altra cosa (a proposito di pagine statiche): ho provato a cercare il titolo dell'ultima pagina creata e:
*"Colori nelle equazioni di OpenOffice: comando color" site:technoburger.net
*La pagina non compare; compare solo cliccando su "ripetere la ricerca includendo i risultati omessi". Anche senza site:, seppure sia primo, non compare la pagina voluta.intitle:"Colori nelle equazioni di OpenOffice: comando color"
non riporta risultatiColori nelle equazioni di OpenOffice: comando color
Riporta la pagina desiderata, ma, sebbene la keyphrase sia esattamente uguale al title, la pagina è solo IV.PS: magari non conta nulla, ma la home page è passata da PR2 a 3, ultimamente.
-
Sul passaggio di PR c'è stato un export il 27/09/08 e il conteggio dei link è stato più "meditato" di prima secondo quanto riportato da Matt Cutts.
-
Ok.
Ora vai nel Google Webmaster Tools e controlla sia l'introduzione che la diagnostica.Leggi tutti i dati del pannello, vedi se trovi qualcosa che non va.
Facci sapere.
-
@mister.jinx said:
Sul passaggio di PR c'è stato un export il 27/09/08 e il conteggio dei link è stato più "meditato" di prima
Beh, ho avuto comunque un miglioramento, che però non si è riflesso nella "velocità di apparizione in SERP" delle nuove pagine
-
@Giorgiotave said:
Ok.
Ora vai nel Google Webmaster Tools e controlla sia l'introduzione che la diagnostica.Leggi tutti i dati del pannello, vedi se trovi qualcosa che non va.
Nell'introduzione, nessun messaggio.
Su diagnostica:
-
scansione web riporta 1 solo url non trovato ( technoburger.net/date/2007/11/03 ), tutte le altre voci sono ok
-
analisi dei contenuti, non poi così male:
-
2 descrizioni duplicate: la home e technoburger.net/?attachment_id=630
-
14 descrizioni brevi: praticamente gli allegati di wordpress, come
-
etc.
-
10 tag title duplicati, relativi a 5 tag uguali o simili ad altre 5 categorie
-
1 tag title breve: technoburger.net/tag/3
-
1 tag title non informativo: technoburger.net/tag/home-page
Riporto per completezza le statistiche della sitemap:
Statistiche Sitemap
Totale URL: 663
URL indicizzati: 648
-
-
E a livello di frequenza di scansione del tuo sito cosa indica il grafico di Googlebot? Ci sono anomalie, picchi, assenze insolite?
-
La copia cache della home page è del 6 ottobre.
I grafici li ho uploadati qui: flickr.com/photos/notoriousxl/2926096855/
(non mi sembra ci siano dei picchi - probabilmente i crolli che vedi sono dati dai down dell'hosting, che nei scorsi mesi ha dato problemi - non so se hai sentito parlare del "fulmine di netsons"...)
-
Ho pubblicato un articolo senza passarlo nel feed (in realtà ho combinato un semi casino - il feed riporta solo articoli vecchi... strano, prima funzionava).
L'articolo è questo: **technoburger.net/il-blog-di-linus-torvalds
**ma ancora non è stato indicizzato, quindi non posso fare il test. Una cosa l'ho notata: passando il post nel feed, questo si indicizza molto prima.
-
@Giorgiotave said:
mi stavo chiedendo se potevi fare un test:
Crea un nuovo articolo e non sottoporlo a nessun aggregatore. (Perchè di solito li sottoponi o prendono il tutto in automatico?).
Finalmente ho i risultati del test. Disattivare il feed (e quindi gli aggregatori) non ha avuto altri effetti oltre a rallentare l'indicizzazione del nuovo post.Infatti, l'articolo technoburger.net/il-blog-di-linus-torvalds (che non è stato riaggregato) compare in serp solo cercando:
"Il Blog di Linus Torvalds: il papà di Linux è un blogger!" site:technoburger.net
Altrimenti si visualizza solo l'home page, come al solito
-
Infatti Google dice di averlo indicizzato nelle ultime 24 ore da adesso (11.32 ora italiana) come vedi qui:
google.it/search?hl=it&q=site:technoburger.net&as_qdr=doppure entro gli ultimi 10 giorni da qui:
google.it/search?q=site:technoburger.net&as_qdr=d10
-
Già, guarda caso dopo aver attivato pingshot su feedburner del mio feed personale
(ho un secondo feed in cui aggrego tutti i post che scrivo nei vari blog... e che gli aggregatori online non conoscono)Il problema dell'invisibilità in SERP, però, rimane