• Super User

    Entrambi i siti si sono ripresi, non sono ancora arrivati al livello prima della penalizzazione, ma secondo me ci arriveranno nel giro di pochissimi giorni. Per le modifiche fatte, scriverò presto un articolo sul mio sito seoman.it


  • Super User

    Ecco come sono uscito dalla penalizzazione

    seoman.it/penalizzazione-posizionamento-google-ottobre-2013.html


  • User

    Ok attendo gli screenshot di analytics con la ripresa.. Anche il mio sito come il tuo "ha la maggior parte degli articoli composti da un testo dove cambia principalmente soltanto la Regione/Provincia". Con le modifiche che ho apportato il 29 ottobre non ho notato nessun cambiamento.
    Ieri ho rimosso i tag strong <u> e <i> in eccesso.
    Mi spieghi cosa intendi per mega-menu? io ho lo stesso menu sopra e sotto in tutte le pagine del sito che contiene un link che punta a un sottodominio.
    Come keyword density non ho nessun problema per le key principali circa il 4% mentre per le altre key rilevanti circa il 2,2%.

    Ho anche aggiunto i rich snippet giorno 30 ottobre ma tutt'ora google mi dice dati strutturati non rilevati.


  • Super User

    Se mi dici il link in privato posso vedere se hai lo stesso problema che avevo io. Per gli screen attendo qualche giorno, comunque sto già notando da sabato e domenica che si sono completamente ripresi !


  • User

    non mi spiego come mai google, quando cerco il nome dominio, ci ha tolto il google place con la mappa a destra nei risultati di ricerca, prima della penalizzazione c'era!


  • User Newbie

    io da circa un mese ho avuto una diminuzione dei visitatori del 75% cioè ho meno di un quarto dei visitatori di prima :(. Non so se è il tuo stesso problema ma l'unica risposta al mio l'ho trovata in un articolo in rete

    in parole povere per chi non avesse voglia di leggersi l'articolo da circa un mese c'è un nuovo algoritmo Hummingbird (Colibrì) di Google che penalizza i siti che propongono contenuti
    cercate colibri su pcworld.it non riesco a inserire qui il link alla pagina, forse non si può ma è tanto che non scrivo nel forum.


  • Admin

    Ciao Zenas,

    il colibrì non penalizza proprio nulla. È semplicemente una nuova infrastruttura del SE.

    Ne abbiamo già parlato qui sul forum:

    Google Hummingbird Update: Che cosa cambia per i webmaster?

    Hummingbird: il nuovo algoritmo di Google

    Hummingbird: Google presenta il nuovo e rivoluzionario algoritmo

    Cutts al Pubcon su Hummingbird


  • User

    Vi ringrazio per le vostre risposte ma continuo a non vedere segni di ripresa.. posso chiedere se sul forum è presente qualche linea guida dettagliata per scrivere correttamente articoli/post mirati alla linkbuilding per rafforzare il sito?
    Penso sia l'Ultima spiaggia prima di farmi un viaggio a medjugorie :rollo:


  • User Newbie

    se può consolarti è quello che è successo anceh al mio sito, per me ha coinciso con il nuovo algoritmo del noto motore di ricerca, infatti dagli altri motori e da altre vie ho gli stessi visitatori di prima, invece dal noto motore meno di un quarto 😞 , solo che io non ci guadagnavo granché quindi zero diviso 4 fa sempre zero, mi spiace per te 🙂
    leggetevi questo pcworld.it/il-colibri-di-google-saccheggia-le-visite-ai-siti-di-contenuto_424420


  • Admin

    Con tutto questo il Colibrì non è imputabile.

    Nell'ultimo periodo la maggior parte dei siti che mi è capitato di osservare sono stati colpiti da Panda quindi fossi in voi controllerei che tecnicamente sia tutto ok.


  • User

    Ciao Juanin ho letto i "requisiti" che si devono avere per non essere colpito da Panda nel blog di google googlewebmastercentral.blogspot.it/2011/05/more-guidance-on-building-high-quality.html
    Tra i vari punti "Does the site have duplicate, overlapping, or redundant articles on the same or similar topics with slightly different keyword variations?" questo è il motivo per cui penso abbia colpito il mio sito.
    Spiego meglio, nelle 400.000 pagine che ho sul sito fino a settembre avevano tutte lo stesso testo con le parole chiavi che variavano in base alla pagina..questo non ha mai dato fastidio a google dall'uscita di panda ad ora e i robots sono passati migliaia di volte su tutto il sito.
    Da due mesi a questa parte abbiamo cercato di migliorare e diversificare i testi in base alle categorie (pensando di essere premiati per questo :p), sostanzialmente abbiamo 30 categorie quindi adesso per tutto il sito abbiamo 30 testi diverse e per tutte le pagine di quella categoria lo stesso testo variato solamente per le parole chiave.
    Può essere questa modifica la causa della penalizzazione? come faccio a rendere unici i testi di 400.000 pagine è impossibile!! Rimetto tutto com'era 2 mesi fa?

    seogenova in MP mi ha consigliato, per come è strutturato il mio sito, di eliminare totalmente il testo dalle pagine e lasciare solo <title>, meta description, h1,h2 e niente testo!.. ma non lo so se sia efficace.
    sto iniziando con l'article marketing e link building per rafforzarlo <- questa operazione eseguita correttamente può riportarmi in testa alla serp?in quanto tempo?

    Il sottodominio (che non ha subito penalizzazioni) ha i testi tutti uguali con la solita variante delle keyword, è stato sottoposto a 4 mesi di seo a inizio anno (linkbuilding e registrazione nelle directory) e ha più di 400.000 pagine!


  • Super User

    Ieri mi ha penalizzato il terzo sito. Prima solo due su 6 erano penalizzati.

    Qui sono quasi sicuro che sia per keywords density.

    Però devo dire che i primi due si sono ripresi alla grande, quindi sono fiducioso anche per questo 🙂


  • Admin

    Per rendere uniche le pagine non è necessario per forza aggiungere solo testi diversi su 400.000 pagine.

    400.000 pagine è impossibile

    Nulla è impossibile.

    Io non seguirei il consiglio fornito, ma piuttosto compatibilmente con la capacità di crawling del tuo sito tarerei la quantità di contenuti.


  • User

    spiegati meglio, intendi dire ridurre il numero delle pagine?


  • Admin

    Potrebbe essere una soluzione, ma bisogna basarsi sui dati in proprio possesso.

    Non c'è una regola valida sempre. Ogni caso è differente.


  • User

    Non possiamo ridurre il numero di pagine.. servono a coprire tutte le destinazioni del mondo.
    Può essere che ci ha penalizzati perchè l'utente entra nel sito ed esce subito?
    **
    Mese di ottobre fino a prima del calo per tutte le key:**
    Pagine/visita: 3,29
    Durata media visita: 00:02:44
    **
    Mese di ottobre fino a prima del calo per una key penalizzata:
    **Pagine/visita: 2,05
    Durata media visita: 00:01:37

    Può essere questo il problema??

    Tornando al discorso contenuti, creare dei testi adhoc e unici per le pagine che vogliamo spingere di più risolverebbe la penalizzazione almeno per quelle determinate pagine?


  • Admin

    Dovrebbe certamente migliorare la situazione, ma io ragionererei in ottica di fare delle pagini utili all'utente.


  • User

    ma di per se sono utili all'utente le pagine.. da queste di "ingresso" arriva ai risultati di ricerca per le vacanze per quella destinazione.. o direttamente all'offerta..
    cioè se dai un occhiata alle pagine penso siano ottimizzate per l'utente.. solo il testo non è "utile" all'utente ma lo è x google!


  • Admin

    Ecco

    solo il testo non è "utile" all'utente ma lo è x google!

    Perché non fai qualche sistema che genere dei contenuti, link e contesto utile all'utente?


  • User

    ma ci sono già! c'è il motore di ricerca, le offerte in evidenza, la mappa di google per vedere la destinazione, informazioni sul clima, consigli e curiosità (cliccando i pulsanti), un grafico dei prezzi per quella destinazione nei vari periodi,c'era l'opportunità di commentare la destinazione (l'ho tolto xke rallentava il cariamento della pagina).. tutte cose che vengono attivate dopo il caricamento della pagina con ajax.
    Quello che l'utente cerca dalla ricerca di google sul sito c'è.
    Il problema è google non l'utente! per l'utente sul sito non mancano i contenuti.. cioè non è un sito spam dove l'utente viene fatto girare a vuoto e poi esce. da noi si possono calcolano i preventivi e fare acquisti (non nelle pagine che ha google)...
    le 2 pagine a visita sono dovute a pagina di ingresso (quella indicizzata e penalizzata da google) -> risultati di ricerca. e poi escono probabilmente perchè gli sembrano alti i prezzi o perchè sono deficienti e non capiscono come si va avanti.

    L'unica cosa che mi viene in mente da poter migliorare nella pagina di ingresso è quel testo. che ne pensi?