• User

    Signori la depressione ci assale 😢
    http ://s24.pos timg.org/uhhls2bjp/depressione.png

    Le pagine sono ottimizzate al meglio.. utilizzando copyscape solo una pagina è stata copiata da questo sito http :// sydney-mappe.taberna.roma .it/viaggi-vacanze/vacanze/ vacanza+capodanno+new+york.html non so che roba è! al suo interno comunque non ho trovato il contenuto copiato.
    Ho trovato e provato questo prodotto http: //w ww. siteliner.com a voi sembra affidabile?

    Ormai non so dove sbattere la testa.. dobbiamo riuscire a tornare alle posizioni precedenti!
    Altri consigli per provare a tornare dove eravamo?? Aggiungere i rich snippet aiuterebbe?
    Ma non potrebbe essere che colibri non faccia vedere i miei risultati in serp e abbia penalizzato le mie keyword? cioè nel senso che ha improvvisamente trovato tanti contenuti più adatti alle keyword dove prima eravamo in testa e ci ha declassato (in alcuni casi anche di 5 pagine) per questo?


  • User

    Su** Link che Rimandano al tuo sito** sto notando una novità :():

    [TABLE="width: 500"]

    [TD]**DOMINI
    [/TD]
    [TD]
    LINK
    **[/TD]
    [TD]**PAGINE CON LINK
    **[/TD]
    [/TR]

    [TD]a*useer.com[/TD]
    [TD]6575[/TD]
    [TD] 23[/TD]
    [TD]nostro collaboratore[/TD]
    [/TR]

    [TD]**nootes.it
    **[/TD]
    [TD]**2037
    [/TD]
    [TD]
    12
    [/TD]
    [TD]
    <- CHI CAZZO E'
    **[/TD]
    [/TR]

    [TD]gasi*a.it[/TD]
    [TD]425[/TD]
    [TD] 1[/TD]
    [TD]stesso argomento nostro[/TD]
    [/TR]

    [TD]blogspot.com[/TD]
    [TD]16[/TD]
    [TD] 5[/TD]
    [TD]stesso argomento nostro[/TD]
    [/TR]
    [/TABLE]

    lo devo bloccare? come si fa?
    potrebbe essere questa la causa della penalizzazione? quel sito è una specie di motore di ricerca che non tratta il nostro stesso argomento..
    seogenova nei tuoi siti penalizzati in Link che rimandano al tuo sito di GWT hai anche tu qualcosa di strano?

    **Esempio: **
    ht tp://ww w.nootes.it/search/aliquota imu comune pieve ligure <-- (il link è proprio con gli spazi dopo /search/)
    **ci sono 359 Risultati per la ricerca: **aliquota imu comune pieve ligure tra questi un link al nostro sito..

    ci sono altri 2037 link di nootes così che contengono backlink al mio sito..:x


  • User Attivo

    ci sono altri 2037 link di nootes così che contengono backlink al mio sito..:x

    Guarda, in teoria non penalizzano... il problema è che Google negli ultimi due anni è nel baillamme estremo. Secondo me hanno perso il controllo su diverse serp, moltissime... la black-seo non dovrebbe incidere, non dovrebbe... in realtà hanno così tanti algoritmi che si intersecano fra di loro che spesso neanche gli ingegneri di Google che li creano riescono a capire cosa fa un altro algoritmo...

    La mia sensazione è che spesso, molto spesso, grossi errori degli algoritmi vengono risolti a mano, ma poichè è impossibile un intervento manuale per tutti gli errori, si cerca almeno di porre riparo agli errori grossi, ma intervenire manualmente sul pazzesco datatabase di Google è impresa quasi impossibile...

    Si va un po' a fortuna... ad ogni modo l'unica cosa vera, da fare, è non ascoltare assolutamente cosa dice Matt Cutts, è stato così pesantemente colto in castagna in passato che ormai la sua credibilità è vicina allo 0.


  • User

    Capisco sei stato chiarissimo.. ma quindi mi stai consigliando di non bloccare questi backlink? addirittura su quel sito ci sono 1500 link che puntano ad una singola pagina del mio..
    Tu personalmente sapresti come uscire da questo periodo buio che sta passando il mio sito in serp?


  • User Attivo

    Anch'io ho avuto uno scossone sabato 26, che sta continuando. Il calo giornaliero delle visite è però nell'ordine del 15%. Non è così marcato come indicato dall'utente peppinosh. Le keys principali hanno tenuto bene. Il calo riguarda gli accessi dalle Keys composte. Credo abbiano fatto un po' di pulizia e penso che si assesterà progressivamente. Tra i concorrenti sembro essere l'unico che ha retto l'impatto in quell'ordine di grandezza. Quelli che mi sembrano esserne usciti meglio sono i domini più nuovi.


  • Moderatore

    Ciao, io i link non li toglierei.
    Anzi ne cercherei qualcuno di qualità nuovo.
    Se possibile mandami il link del sito in PM, altrimenti non riesco a formulare ipotesi....


  • Super User

    Uno dei due siti ( dove ho tolti anche tutti i tag strong ) forse si sta riprendendo.


  • User

    Forse? potresti specificare meglio le modifiche che hai fatto e da cosa lo hai capito che forse si sta riprendendo? grazie 🙂


  • Super User

    Entrambi i siti si sono ripresi, non sono ancora arrivati al livello prima della penalizzazione, ma secondo me ci arriveranno nel giro di pochissimi giorni. Per le modifiche fatte, scriverò presto un articolo sul mio sito seoman.it


  • Super User

    Ecco come sono uscito dalla penalizzazione

    seoman.it/penalizzazione-posizionamento-google-ottobre-2013.html


  • User

    Ok attendo gli screenshot di analytics con la ripresa.. Anche il mio sito come il tuo "ha la maggior parte degli articoli composti da un testo dove cambia principalmente soltanto la Regione/Provincia". Con le modifiche che ho apportato il 29 ottobre non ho notato nessun cambiamento.
    Ieri ho rimosso i tag strong <u> e <i> in eccesso.
    Mi spieghi cosa intendi per mega-menu? io ho lo stesso menu sopra e sotto in tutte le pagine del sito che contiene un link che punta a un sottodominio.
    Come keyword density non ho nessun problema per le key principali circa il 4% mentre per le altre key rilevanti circa il 2,2%.

    Ho anche aggiunto i rich snippet giorno 30 ottobre ma tutt'ora google mi dice dati strutturati non rilevati.


  • Super User

    Se mi dici il link in privato posso vedere se hai lo stesso problema che avevo io. Per gli screen attendo qualche giorno, comunque sto già notando da sabato e domenica che si sono completamente ripresi !


  • User

    non mi spiego come mai google, quando cerco il nome dominio, ci ha tolto il google place con la mappa a destra nei risultati di ricerca, prima della penalizzazione c'era!


  • User Newbie

    io da circa un mese ho avuto una diminuzione dei visitatori del 75% cioè ho meno di un quarto dei visitatori di prima :(. Non so se è il tuo stesso problema ma l'unica risposta al mio l'ho trovata in un articolo in rete

    in parole povere per chi non avesse voglia di leggersi l'articolo da circa un mese c'è un nuovo algoritmo Hummingbird (Colibrì) di Google che penalizza i siti che propongono contenuti
    cercate colibri su pcworld.it non riesco a inserire qui il link alla pagina, forse non si può ma è tanto che non scrivo nel forum.


  • Admin

    Ciao Zenas,

    il colibrì non penalizza proprio nulla. È semplicemente una nuova infrastruttura del SE.

    Ne abbiamo già parlato qui sul forum:

    Google Hummingbird Update: Che cosa cambia per i webmaster?

    Hummingbird: il nuovo algoritmo di Google

    Hummingbird: Google presenta il nuovo e rivoluzionario algoritmo

    Cutts al Pubcon su Hummingbird


  • User

    Vi ringrazio per le vostre risposte ma continuo a non vedere segni di ripresa.. posso chiedere se sul forum è presente qualche linea guida dettagliata per scrivere correttamente articoli/post mirati alla linkbuilding per rafforzare il sito?
    Penso sia l'Ultima spiaggia prima di farmi un viaggio a medjugorie :rollo:


  • User Newbie

    se può consolarti è quello che è successo anceh al mio sito, per me ha coinciso con il nuovo algoritmo del noto motore di ricerca, infatti dagli altri motori e da altre vie ho gli stessi visitatori di prima, invece dal noto motore meno di un quarto 😞 , solo che io non ci guadagnavo granché quindi zero diviso 4 fa sempre zero, mi spiace per te 🙂
    leggetevi questo pcworld.it/il-colibri-di-google-saccheggia-le-visite-ai-siti-di-contenuto_424420


  • Admin

    Con tutto questo il Colibrì non è imputabile.

    Nell'ultimo periodo la maggior parte dei siti che mi è capitato di osservare sono stati colpiti da Panda quindi fossi in voi controllerei che tecnicamente sia tutto ok.


  • User

    Ciao Juanin ho letto i "requisiti" che si devono avere per non essere colpito da Panda nel blog di google googlewebmastercentral.blogspot.it/2011/05/more-guidance-on-building-high-quality.html
    Tra i vari punti "Does the site have duplicate, overlapping, or redundant articles on the same or similar topics with slightly different keyword variations?" questo è il motivo per cui penso abbia colpito il mio sito.
    Spiego meglio, nelle 400.000 pagine che ho sul sito fino a settembre avevano tutte lo stesso testo con le parole chiavi che variavano in base alla pagina..questo non ha mai dato fastidio a google dall'uscita di panda ad ora e i robots sono passati migliaia di volte su tutto il sito.
    Da due mesi a questa parte abbiamo cercato di migliorare e diversificare i testi in base alle categorie (pensando di essere premiati per questo :p), sostanzialmente abbiamo 30 categorie quindi adesso per tutto il sito abbiamo 30 testi diverse e per tutte le pagine di quella categoria lo stesso testo variato solamente per le parole chiave.
    Può essere questa modifica la causa della penalizzazione? come faccio a rendere unici i testi di 400.000 pagine è impossibile!! Rimetto tutto com'era 2 mesi fa?

    seogenova in MP mi ha consigliato, per come è strutturato il mio sito, di eliminare totalmente il testo dalle pagine e lasciare solo <title>, meta description, h1,h2 e niente testo!.. ma non lo so se sia efficace.
    sto iniziando con l'article marketing e link building per rafforzarlo <- questa operazione eseguita correttamente può riportarmi in testa alla serp?in quanto tempo?

    Il sottodominio (che non ha subito penalizzazioni) ha i testi tutti uguali con la solita variante delle keyword, è stato sottoposto a 4 mesi di seo a inizio anno (linkbuilding e registrazione nelle directory) e ha più di 400.000 pagine!


  • Super User

    Ieri mi ha penalizzato il terzo sito. Prima solo due su 6 erano penalizzati.

    Qui sono quasi sicuro che sia per keywords density.

    Però devo dire che i primi due si sono ripresi alla grande, quindi sono fiducioso anche per questo 🙂