- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Sito semi-penalizzato
-
Ciao robaldo,
sono boilerplate i pezzi di pagine ripetuti su molte pagine di un sito web a fondo pagina. Se invece le pagine sono troppo simili tra loro o presentano un'elevata percentuale di parti identiche allora è un problema non solo di boilerplate anche di near duplicates.
La differenza tra le due cose comunque porta a una sola conclusione: aumentare i contenuti e diversificare le pagine.
Riguardo all'inserimento del tuo sito nel cluster "test" di Google tra le risorse correlate anche di questo ho parlato al Convegno GT (sembra una coincidenza ma è stato il mio primo intervento).
Puoi approfondire al riguardo guardando questi risultati qua:
google.it/search?q=site%3Amagnaromagna.it+intext%3A"test"
google.it/search?hl=it&q=site%3Amagnaromagna.it+inurl%3A"test"
google.it/search?hl=it&q=site%3Amagnaromagna.it+inanchor%3A"test"Se ripeti le stesse ricerche con video divertenti vedrai risultati sensibilmente diversi (meno pagine).
N.B.: nelle URL sopra dove vedi degli spazi vuoti uniscili.
-
Ok, grazie della spiegazione,
quindi pagine in cui cambia "solo" titolo immagine e tag alt di quell'immagine possono sembrare simili agli occhi di google. Nel caso non riesca ad aggiungere testo personalizzato (lo script crea la pagina in base alla singola immagine, aggiungendo il nome dell'immagine nel title e nel tag alt dell'immagine) secondo te è meglio togliere dal title la parte comune a tutte le pagine di foto (esempio foto curiose) oppure è meglio tornare all'antico, con le pagine fatte manualmente? (ma questo comporterebbe togliere i vari redirect 301, ovvero un nuovo cambiamento del sito)
:bho:Ho trovato il modo di aggiungere una descrizione aggiuntiva ad ogni pagina (quindi non solo titolo e alt della foto). Una descrizione di 150 caratteri - specifica per ogni pagina - può bastare?
-
Nessun cambiamento, a parte il numero di link secondo GWT (calati). Un dubbio: mettere il redirect 301 alle molte pagine errate provenienti da link esterni sbagliati porta a un calo di questi backlinks?
E' anche vero che non sono ancora riuscito a differenziare tutte le pagine della sezione interna che può sembrare che abbia pagine troppo simili tra loro.
Qualche suggerimento?
-
Ho il sospetto che il problema sia dovuto principalmente a due motivi:
- la sezione /cartoline , che rifacendola ha creato una pagina per ogni immagine, ma questa è povera di contenuti. Sto aggiungendo le descrizioni ad ogni singola pagina
- alcuni post (presentazioni di video o di giochi) hanno un testo breve, a differenza di altre pagine.
Chi di voi ne capisce saprebbe dirmi se è così, se può essere una penalizzazioni da contenuti poveri o duplicati? Grazie
-
Ciao Robaldo, si' secondo me dipende proprio da quello. E Mister.Jinx ti ha spiegato bene un problema tipico di molti siti che ha colpito il tuo sito.
Guardando ai contenuti, unico vero motivo della tua penalizzazione, vedo che su circa 5000 pagine hai....
a) circa 1500 pagine con contenuto scarso o inesistente nella cartella cartoline
http://www.google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fcartoline%2Fb) circa 500 con contenuto originale inesistente in:
http://www.google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Ftag%2Fc) circa 200 pagine duplicate in
http://www.google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fbarzellette%2Fd) aggiungici i post con poco contenuto di cui parlavi tu...
significa che il 50% delle pagine del tuo sito e' fatto con contenuti duplicati e/o troppo ridotti... ovvero una penalizzazione prima o dopo ti doveva arrivare.
Buon lavoro
Enrico
-
Intanto grazie della risposta. Quello che vorrei capire
@madri said:a) circa 1500 pagine con contenuto scarso o inesistente nella cartella cartoline
google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fcartoline%2F
Aggiungere una descrizione di circa 160 caratteri (sia nella pagina, sia nel tag description) ad ogni immagine (che è una url singola) può aiutare?
@madri said:
b) circa 500 con contenuto originale inesistente in:
google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Ftag%2F
Quindi i tag (tra l'altro pensati per gli utenti) sono deleteri? Anche se hanno (da pochissimo tempo) descrizioni differenziate? E quindi come si risolve, escludendo i tag dall'indicizzazione?
@madri said:
c) circa 200 pagine duplicate in
google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fbarzellette%2F
non capisco, eppure sono tutte pagine diverse tra loro, sia nei contenuti, sia (almeno in parte) nei tag title e descriptionGrazie dei suggerimenti!
-
Ciao robaldo, due siti giovani che curo hanno avuto un'impennata nel giro di 48 ore grazie a delle modifiche che ho apportato.
- Ho eliminato tutti i tag.
- Ho eliminato la ripetizione di parole nel titolo della pagina.
Credo fossero stati colpiti da sovraottimizzazione delle pagine.
-
@robaldo said:
Intanto grazie della risposta. Quello che vorrei capire
Aggiungere una descrizione di circa 160 caratteri (sia nella pagina, sia nel tag description) ad ogni immagine (che è una url singola) può aiutare?
Quindi i tag (tra l'altro pensati per gli utenti) sono deleteri? Anche se hanno (da pochissimo tempo) descrizioni differenziate? E quindi come si risolve, escludendo i tag dall'indicizzazione?
non capisco, eppure sono tutte pagine diverse tra loro, sia nei contenuti, sia (almeno in parte) nei tag title e description
Grazie dei suggerimenti!
-
non mi limiterei a title e description, metterei almeno 3 o 4 righe di contenuto nel testo e/o eliminerei o ridurrei di brutto gli header, footer e menu di navigazione
-
sono deleteri nel momento in cui iniziano ad essere "troppi". Nel tuo caso non e' "grave" la situazione, ma unita agli altri 2 problemi indicati sopra non aiuta di certo alla creazione di contenuti/pagine originali
-
Sono diverse "tra loro" ma sono identiche a migliaia di pagine sul web. Non credo che le barzellette siano una tua produzione originale. Esempio : http://www.google.com/search?q="Passano+i+minuti,+le+prime+mosche+cominciano+a+banchettare+sulla+piramide+di+escrementi"&hl=en&filter=0
Ciao
Enrico
-
-
Ciao a tutti e grazie dei suggerimenti. In questo periodo ho eliminato tutte quelle pagine con poco contenuto, concentrando 15 immagini (che erano 15 pagine) per pagina. Ora ogni pagina è "più ricca", ma ovviamente molte pagine ora danno 404. Ora non mi risultano link errati interni al sito.
Secondo voi, se questo è il problema (non ho trovato spam links o commenti spammosi), quanto tempo ci vorrà per essere "riconsiderati"? Dal GWT vedo che il sito viene controllato ogni giorno.
-
Ciao robaldo, sui miei blog nel giro di 24 - 72 ore è tutto ritornato alla normalità.
Magari aspetta una settimana e se vedi che non risale nella serp, continua a fare tagli di cose che secondo te potrebbero infastidire google.Negli ultimi 10 giorni ho notato che google è diventato molto più attento alla sovraottimizzazione, basta pochissimo per essere penalizzati.
-
Ciao a tutti
mi intrometto ( chiedo scusa a robaldo) per chiedere maggiori delucidazioni in merito al boilerplate.
Il discorso del boilerplate è valido per tutti i siti internet o in particolar modo i siti che hanno moltissime pagine ??Sto ancora cercando la causa della penalizzazione del mio sito, e così leggendo questo thread mi sono chiesto se il mio sito poteva essere penalizzato per una ripetizione della header e del footer. La mia testata e composta dal logo e motore di ricerca interno, il footer è composto da 7 link.
Grazie a tutti.
-
Non ho ancora visto cambiamenti "veloci". Mentre attendo ho un dubbio: nel sito esistono molti tag. Che sia il caso di disabilitarli tramite il robots.txt oppure eventualmente attendo ancora 1 o 2 settimane per vedere se queste modifiche fatte nell'ultimo mese (aggregazione delle tante pagine con poco contenuto in poche pagine)?
Grazie!
-
Strana cosa: vedo che il bot passa ogni giorno ma.. la cache mostrata da google è vuota! C'è da preoccuparsi? Eppure cercando il sito viene mostrato, con backlinks :?:():
Grazie a chi saprà consigliarmi
-
Proverò ora a mettere noindex sia alle pagine dei tags, sia alle category (uso wordpress) perchè il numero di pagine restituite dal comando site:miosito .it mi sembra più alto del numero di pagine reali.
Cache di google ancora vuota.
-
In attesa di vedere se queste modifiche contano ho notato che il pagerank è aumentato. Strano paradosso.
-
Ciao Robaldo,
per curiosita' personale, mi sapresti dire se ci sono novita'?Sei uscito dalla penalizzazione e, se si', cosa hai fatto?
grazie
Enrico
-
Ciao,
no ancora non vedo risultati. Ho visto un aumento del pagerank nominale, un aumento dei backlink, un aggiornamento più veloce della cache della home (prima era ogni 5 giorni, ora mi pare ogni 1-2) ma non il numero di visitatori.
Nel frattempo ho messo noindex a tutte le pagine tags, e rimosso quelle che ritenevo potessero esser considerate duplicate. Ah, la cache vuota era perchè il noarchive messo ai tags veniva aggiunto automaticamente anche alla homeChe NE dite?
-
Hai fatto correttamente.
Dalle mie analisi secondo me il tuo sito e' gia' "ufficialmente" uscito dalla penalizzazione che lo colpiva. Quello che gli manca ora e' il "tempo" per rientrare nelle serp per le varie keyword ma, considerato il tuo "passato burrascoso", credo che dovrai attendere ancora un po'.
Ovviamente quando "rientrerai" totalmente non aspettarti gli stessi volumi di traffico se le pagine tag e quelle deindicizzate prima facevano molto traffico.
in bocca al lupo.
-
Grazie,
per "attendere ancora un po'" secondo te si parla di settimane oppure di mesi? Temo che sarà la seconda...E posso chiederti come hai capito che è "ufficialmente" uscito dalla penalizzazione?
Dato: la percentuale di accessi da google si attesta ad una media del 60% giornaliero, e questo immagino sia indice di penalizzazione.