• User

    Vi ringrazio per le vostre risposte ma continuo a non vedere segni di ripresa.. posso chiedere se sul forum è presente qualche linea guida dettagliata per scrivere correttamente articoli/post mirati alla linkbuilding per rafforzare il sito?
    Penso sia l'Ultima spiaggia prima di farmi un viaggio a medjugorie :rollo:


  • User Newbie

    se può consolarti è quello che è successo anceh al mio sito, per me ha coinciso con il nuovo algoritmo del noto motore di ricerca, infatti dagli altri motori e da altre vie ho gli stessi visitatori di prima, invece dal noto motore meno di un quarto 😞 , solo che io non ci guadagnavo granché quindi zero diviso 4 fa sempre zero, mi spiace per te 🙂
    leggetevi questo pcworld.it/il-colibri-di-google-saccheggia-le-visite-ai-siti-di-contenuto_424420


  • Admin

    Con tutto questo il Colibrì non è imputabile.

    Nell'ultimo periodo la maggior parte dei siti che mi è capitato di osservare sono stati colpiti da Panda quindi fossi in voi controllerei che tecnicamente sia tutto ok.


  • User

    Ciao Juanin ho letto i "requisiti" che si devono avere per non essere colpito da Panda nel blog di google googlewebmastercentral.blogspot.it/2011/05/more-guidance-on-building-high-quality.html
    Tra i vari punti "Does the site have duplicate, overlapping, or redundant articles on the same or similar topics with slightly different keyword variations?" questo è il motivo per cui penso abbia colpito il mio sito.
    Spiego meglio, nelle 400.000 pagine che ho sul sito fino a settembre avevano tutte lo stesso testo con le parole chiavi che variavano in base alla pagina..questo non ha mai dato fastidio a google dall'uscita di panda ad ora e i robots sono passati migliaia di volte su tutto il sito.
    Da due mesi a questa parte abbiamo cercato di migliorare e diversificare i testi in base alle categorie (pensando di essere premiati per questo :p), sostanzialmente abbiamo 30 categorie quindi adesso per tutto il sito abbiamo 30 testi diverse e per tutte le pagine di quella categoria lo stesso testo variato solamente per le parole chiave.
    Può essere questa modifica la causa della penalizzazione? come faccio a rendere unici i testi di 400.000 pagine è impossibile!! Rimetto tutto com'era 2 mesi fa?

    seogenova in MP mi ha consigliato, per come è strutturato il mio sito, di eliminare totalmente il testo dalle pagine e lasciare solo <title>, meta description, h1,h2 e niente testo!.. ma non lo so se sia efficace.
    sto iniziando con l'article marketing e link building per rafforzarlo <- questa operazione eseguita correttamente può riportarmi in testa alla serp?in quanto tempo?

    Il sottodominio (che non ha subito penalizzazioni) ha i testi tutti uguali con la solita variante delle keyword, è stato sottoposto a 4 mesi di seo a inizio anno (linkbuilding e registrazione nelle directory) e ha più di 400.000 pagine!


  • Super User

    Ieri mi ha penalizzato il terzo sito. Prima solo due su 6 erano penalizzati.

    Qui sono quasi sicuro che sia per keywords density.

    Però devo dire che i primi due si sono ripresi alla grande, quindi sono fiducioso anche per questo 🙂


  • Admin

    Per rendere uniche le pagine non è necessario per forza aggiungere solo testi diversi su 400.000 pagine.

    400.000 pagine è impossibile

    Nulla è impossibile.

    Io non seguirei il consiglio fornito, ma piuttosto compatibilmente con la capacità di crawling del tuo sito tarerei la quantità di contenuti.


  • User

    spiegati meglio, intendi dire ridurre il numero delle pagine?


  • Admin

    Potrebbe essere una soluzione, ma bisogna basarsi sui dati in proprio possesso.

    Non c'è una regola valida sempre. Ogni caso è differente.


  • User

    Non possiamo ridurre il numero di pagine.. servono a coprire tutte le destinazioni del mondo.
    Può essere che ci ha penalizzati perchè l'utente entra nel sito ed esce subito?
    **
    Mese di ottobre fino a prima del calo per tutte le key:**
    Pagine/visita: 3,29
    Durata media visita: 00:02:44
    **
    Mese di ottobre fino a prima del calo per una key penalizzata:
    **Pagine/visita: 2,05
    Durata media visita: 00:01:37

    Può essere questo il problema??

    Tornando al discorso contenuti, creare dei testi adhoc e unici per le pagine che vogliamo spingere di più risolverebbe la penalizzazione almeno per quelle determinate pagine?


  • Admin

    Dovrebbe certamente migliorare la situazione, ma io ragionererei in ottica di fare delle pagini utili all'utente.


  • User

    ma di per se sono utili all'utente le pagine.. da queste di "ingresso" arriva ai risultati di ricerca per le vacanze per quella destinazione.. o direttamente all'offerta..
    cioè se dai un occhiata alle pagine penso siano ottimizzate per l'utente.. solo il testo non è "utile" all'utente ma lo è x google!


  • Admin

    Ecco

    solo il testo non è "utile" all'utente ma lo è x google!

    Perché non fai qualche sistema che genere dei contenuti, link e contesto utile all'utente?


  • User

    ma ci sono già! c'è il motore di ricerca, le offerte in evidenza, la mappa di google per vedere la destinazione, informazioni sul clima, consigli e curiosità (cliccando i pulsanti), un grafico dei prezzi per quella destinazione nei vari periodi,c'era l'opportunità di commentare la destinazione (l'ho tolto xke rallentava il cariamento della pagina).. tutte cose che vengono attivate dopo il caricamento della pagina con ajax.
    Quello che l'utente cerca dalla ricerca di google sul sito c'è.
    Il problema è google non l'utente! per l'utente sul sito non mancano i contenuti.. cioè non è un sito spam dove l'utente viene fatto girare a vuoto e poi esce. da noi si possono calcolano i preventivi e fare acquisti (non nelle pagine che ha google)...
    le 2 pagine a visita sono dovute a pagina di ingresso (quella indicizzata e penalizzata da google) -> risultati di ricerca. e poi escono probabilmente perchè gli sembrano alti i prezzi o perchè sono deficienti e non capiscono come si va avanti.

    L'unica cosa che mi viene in mente da poter migliorare nella pagina di ingresso è quel testo. che ne pensi?


  • Admin

    Potresti secondo me trovare il modo di rendere leggibili quei contenuti che carichi in ajax.


  • User

    ci avevo pensato ma poi diventerebbero contenuti doppioni! in quanto ad esempio per le curiosità o il clima per una destinazione i testi sono uguali sia nella pagina di capodanno a newyork che nella pagina di natale a new york e così per tutte le altre destinazioni! proprio per questo li faccio caricare successivamente e li nascondo a google!


  • Super User

    Un piccolo aggiornamento.

    I due siti colpiti si sono ripresi, ci hanno messo rispettivamente 10 e 13 giorni.

    Adesso il terzo sito che era stato penalizzato non si è ancora ripreso, però sono passati soltanto 7 giorni, quindi se si comporta come gli altri, bisognerà attendere ancora qualche giorno.

    In questo terzo sito non erano presenti tag strong, ma sicuramente la penalizzazione è dovuta alla keyword density. Ho ottimizzato i testi e adesso aspettiamo 🙂


  • User

    Piccolo aggiornamento mio.. Non è cambiato nulla!!!!!


  • Super User

    Strano... quanti giorni sono passati ?

    Io noto adesso un miglioramento sul sito penalizzato. Quindi per la giornata di domani o mercoledì prevedo un netto miglioramento.

    Probabilmente sta passando il bot di google sulle mie pagine, quindi riposizionandole...


  • User

    Da Sabato 26 ad oggi sono passati 17 giorni.... Abbiamo avuto un incremento delle visite ma dovute al sottodominio (500 in più in un giorno in quanto hanno aperto una nuova tratta aerea e noi siamo in prima pagina da 1 anno) che non era stato penalizzato.
    Il dominio penalizzato dorme ancora.....


  • User Newbie

    idem per il mio sito, ero in prima pagina ora non riesco a fare il conto di dove esco 😞