• User Attivo

    @robaldo said:

    Intanto grazie della risposta. Quello che vorrei capire

    Aggiungere una descrizione di circa 160 caratteri (sia nella pagina, sia nel tag description) ad ogni immagine (che è una url singola) può aiutare?

    Quindi i tag (tra l'altro pensati per gli utenti) sono deleteri? Anche se hanno (da pochissimo tempo) descrizioni differenziate? E quindi come si risolve, escludendo i tag dall'indicizzazione?

    non capisco, eppure sono tutte pagine diverse tra loro, sia nei contenuti, sia (almeno in parte) nei tag title e description :mmm:

    Grazie dei suggerimenti!

    1. non mi limiterei a title e description, metterei almeno 3 o 4 righe di contenuto nel testo e/o eliminerei o ridurrei di brutto gli header, footer e menu di navigazione

    2. sono deleteri nel momento in cui iniziano ad essere "troppi". Nel tuo caso non e' "grave" la situazione, ma unita agli altri 2 problemi indicati sopra non aiuta di certo alla creazione di contenuti/pagine originali

    3. Sono diverse "tra loro" ma sono identiche a migliaia di pagine sul web. Non credo che le barzellette siano una tua produzione originale. Esempio : http://www.google.com/search?q="Passano+i+minuti,+le+prime+mosche+cominciano+a+banchettare+sulla+piramide+di+escrementi"&hl=en&filter=0

    Ciao 🙂
    Enrico


  • User Attivo

    Ciao a tutti e grazie dei suggerimenti. In questo periodo ho eliminato tutte quelle pagine con poco contenuto, concentrando 15 immagini (che erano 15 pagine) per pagina. Ora ogni pagina è "più ricca", ma ovviamente molte pagine ora danno 404. Ora non mi risultano link errati interni al sito.
    Secondo voi, se questo è il problema (non ho trovato spam links o commenti spammosi), quanto tempo ci vorrà per essere "riconsiderati"? :mmm: Dal GWT vedo che il sito viene controllato ogni giorno.


  • User

    Ciao robaldo, sui miei blog nel giro di 24 - 72 ore è tutto ritornato alla normalità.
    Magari aspetta una settimana e se vedi che non risale nella serp, continua a fare tagli di cose che secondo te potrebbero infastidire google.

    Negli ultimi 10 giorni ho notato che google è diventato molto più attento alla sovraottimizzazione, basta pochissimo per essere penalizzati.


  • User

    Ciao a tutti
    mi intrometto ( chiedo scusa a robaldo) per chiedere maggiori delucidazioni in merito al boilerplate.
    Il discorso del boilerplate è valido per tutti i siti internet o in particolar modo i siti che hanno moltissime pagine ??

    Sto ancora cercando la causa della penalizzazione del mio sito, e così leggendo questo thread mi sono chiesto se il mio sito poteva essere penalizzato per una ripetizione della header e del footer. La mia testata e composta dal logo e motore di ricerca interno, il footer è composto da 7 link.

    Grazie a tutti.


  • User Attivo

    Non ho ancora visto cambiamenti "veloci". Mentre attendo ho un dubbio: nel sito esistono molti tag. Che sia il caso di disabilitarli tramite il robots.txt oppure eventualmente attendo ancora 1 o 2 settimane per vedere se queste modifiche fatte nell'ultimo mese (aggregazione delle tante pagine con poco contenuto in poche pagine)?

    Grazie!


  • User Attivo

    Strana cosa: vedo che il bot passa ogni giorno ma.. la cache mostrata da google è vuota! C'è da preoccuparsi? Eppure cercando il sito viene mostrato, con backlinks :?:():

    Grazie a chi saprà consigliarmi


  • User Attivo

    Proverò ora a mettere noindex sia alle pagine dei tags, sia alle category (uso wordpress) perchè il numero di pagine restituite dal comando site:miosito .it mi sembra più alto del numero di pagine reali.
    Cache di google ancora vuota. :mmm:


  • User Attivo

    In attesa di vedere se queste modifiche contano ho notato che il pagerank è aumentato. Strano paradosso.


  • User Attivo

    Ciao Robaldo,
    per curiosita' personale, mi sapresti dire se ci sono novita'?

    Sei uscito dalla penalizzazione e, se si', cosa hai fatto?

    grazie
    Enrico


  • User Attivo

    Ciao,
    no ancora non vedo risultati. Ho visto un aumento del pagerank nominale, un aumento dei backlink, un aggiornamento più veloce della cache della home (prima era ogni 5 giorni, ora mi pare ogni 1-2) ma non il numero di visitatori.
    Nel frattempo ho messo noindex a tutte le pagine tags, e rimosso quelle che ritenevo potessero esser considerate duplicate. Ah, la cache vuota era perchè il noarchive messo ai tags veniva aggiunto automaticamente anche alla home :sbav:

    Che NE dite?


  • User Attivo

    Hai fatto correttamente.

    Dalle mie analisi secondo me il tuo sito e' gia' "ufficialmente" uscito dalla penalizzazione che lo colpiva. Quello che gli manca ora e' il "tempo" per rientrare nelle serp per le varie keyword ma, considerato il tuo "passato burrascoso", credo che dovrai attendere ancora un po'.

    Ovviamente quando "rientrerai" totalmente non aspettarti gli stessi volumi di traffico se le pagine tag e quelle deindicizzate prima facevano molto traffico.

    in bocca al lupo.


  • User Attivo

    Grazie,
    per "attendere ancora un po'" secondo te si parla di settimane oppure di mesi? Temo che sarà la seconda...

    E posso chiederti come hai capito che è "ufficialmente" uscito dalla penalizzazione?

    Dato: la percentuale di accessi da google si attesta ad una media del 60% giornaliero, e questo immagino sia indice di penalizzazione.