- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Improvvisa penalizzazione di Google
-
Anch'io ho avuto uno scossone sabato 26, che sta continuando. Il calo giornaliero delle visite è però nell'ordine del 15%. Non è così marcato come indicato dall'utente peppinosh. Le keys principali hanno tenuto bene. Il calo riguarda gli accessi dalle Keys composte. Credo abbiano fatto un po' di pulizia e penso che si assesterà progressivamente. Tra i concorrenti sembro essere l'unico che ha retto l'impatto in quell'ordine di grandezza. Quelli che mi sembrano esserne usciti meglio sono i domini più nuovi.
-
Ciao, io i link non li toglierei.
Anzi ne cercherei qualcuno di qualità nuovo.
Se possibile mandami il link del sito in PM, altrimenti non riesco a formulare ipotesi....
-
Uno dei due siti ( dove ho tolti anche tutti i tag strong ) forse si sta riprendendo.
-
Forse? potresti specificare meglio le modifiche che hai fatto e da cosa lo hai capito che forse si sta riprendendo? grazie
-
Entrambi i siti si sono ripresi, non sono ancora arrivati al livello prima della penalizzazione, ma secondo me ci arriveranno nel giro di pochissimi giorni. Per le modifiche fatte, scriverò presto un articolo sul mio sito seoman.it
-
Ecco come sono uscito dalla penalizzazione
seoman.it/penalizzazione-posizionamento-google-ottobre-2013.html
-
Ok attendo gli screenshot di analytics con la ripresa.. Anche il mio sito come il tuo "ha la maggior parte degli articoli composti da un testo dove cambia principalmente soltanto la Regione/Provincia". Con le modifiche che ho apportato il 29 ottobre non ho notato nessun cambiamento.
Ieri ho rimosso i tag strong <u> e <i> in eccesso.
Mi spieghi cosa intendi per mega-menu? io ho lo stesso menu sopra e sotto in tutte le pagine del sito che contiene un link che punta a un sottodominio.
Come keyword density non ho nessun problema per le key principali circa il 4% mentre per le altre key rilevanti circa il 2,2%.Ho anche aggiunto i rich snippet giorno 30 ottobre ma tutt'ora google mi dice dati strutturati non rilevati.
-
Se mi dici il link in privato posso vedere se hai lo stesso problema che avevo io. Per gli screen attendo qualche giorno, comunque sto già notando da sabato e domenica che si sono completamente ripresi !
-
non mi spiego come mai google, quando cerco il nome dominio, ci ha tolto il google place con la mappa a destra nei risultati di ricerca, prima della penalizzazione c'era!
-
io da circa un mese ho avuto una diminuzione dei visitatori del 75% cioè ho meno di un quarto dei visitatori di prima :(. Non so se è il tuo stesso problema ma l'unica risposta al mio l'ho trovata in un articolo in rete
in parole povere per chi non avesse voglia di leggersi l'articolo da circa un mese c'è un nuovo algoritmo Hummingbird (Colibrì) di Google che penalizza i siti che propongono contenuti
cercate colibri su pcworld.it non riesco a inserire qui il link alla pagina, forse non si può ma è tanto che non scrivo nel forum.
-
Ciao Zenas,
il colibrì non penalizza proprio nulla. È semplicemente una nuova infrastruttura del SE.
Ne abbiamo già parlato qui sul forum:
Google Hummingbird Update: Che cosa cambia per i webmaster?
Hummingbird: il nuovo algoritmo di Google
Hummingbird: Google presenta il nuovo e rivoluzionario algoritmo
-
Vi ringrazio per le vostre risposte ma continuo a non vedere segni di ripresa.. posso chiedere se sul forum è presente qualche linea guida dettagliata per scrivere correttamente articoli/post mirati alla linkbuilding per rafforzare il sito?
Penso sia l'Ultima spiaggia prima di farmi un viaggio a medjugorie
-
se può consolarti è quello che è successo anceh al mio sito, per me ha coinciso con il nuovo algoritmo del noto motore di ricerca, infatti dagli altri motori e da altre vie ho gli stessi visitatori di prima, invece dal noto motore meno di un quarto , solo che io non ci guadagnavo granché quindi zero diviso 4 fa sempre zero, mi spiace per te
leggetevi questo pcworld.it/il-colibri-di-google-saccheggia-le-visite-ai-siti-di-contenuto_424420
-
Con tutto questo il Colibrì non è imputabile.
Nell'ultimo periodo la maggior parte dei siti che mi è capitato di osservare sono stati colpiti da Panda quindi fossi in voi controllerei che tecnicamente sia tutto ok.
-
Ciao Juanin ho letto i "requisiti" che si devono avere per non essere colpito da Panda nel blog di google googlewebmastercentral.blogspot.it/2011/05/more-guidance-on-building-high-quality.html
Tra i vari punti "Does the site have duplicate, overlapping, or redundant articles on the same or similar topics with slightly different keyword variations?" questo è il motivo per cui penso abbia colpito il mio sito.
Spiego meglio, nelle 400.000 pagine che ho sul sito fino a settembre avevano tutte lo stesso testo con le parole chiavi che variavano in base alla pagina..questo non ha mai dato fastidio a google dall'uscita di panda ad ora e i robots sono passati migliaia di volte su tutto il sito.
Da due mesi a questa parte abbiamo cercato di migliorare e diversificare i testi in base alle categorie (pensando di essere premiati per questo :p), sostanzialmente abbiamo 30 categorie quindi adesso per tutto il sito abbiamo 30 testi diverse e per tutte le pagine di quella categoria lo stesso testo variato solamente per le parole chiave.
Può essere questa modifica la causa della penalizzazione? come faccio a rendere unici i testi di 400.000 pagine è impossibile!! Rimetto tutto com'era 2 mesi fa?seogenova in MP mi ha consigliato, per come è strutturato il mio sito, di eliminare totalmente il testo dalle pagine e lasciare solo <title>, meta description, h1,h2 e niente testo!.. ma non lo so se sia efficace.
sto iniziando con l'article marketing e link building per rafforzarlo <- questa operazione eseguita correttamente può riportarmi in testa alla serp?in quanto tempo?Il sottodominio (che non ha subito penalizzazioni) ha i testi tutti uguali con la solita variante delle keyword, è stato sottoposto a 4 mesi di seo a inizio anno (linkbuilding e registrazione nelle directory) e ha più di 400.000 pagine!
-
Ieri mi ha penalizzato il terzo sito. Prima solo due su 6 erano penalizzati.
Qui sono quasi sicuro che sia per keywords density.
Però devo dire che i primi due si sono ripresi alla grande, quindi sono fiducioso anche per questo
-
Per rendere uniche le pagine non è necessario per forza aggiungere solo testi diversi su 400.000 pagine.
400.000 pagine è impossibile
Nulla è impossibile.
Io non seguirei il consiglio fornito, ma piuttosto compatibilmente con la capacità di crawling del tuo sito tarerei la quantità di contenuti.
-
spiegati meglio, intendi dire ridurre il numero delle pagine?
-
Potrebbe essere una soluzione, ma bisogna basarsi sui dati in proprio possesso.
Non c'è una regola valida sempre. Ogni caso è differente.
-
Non possiamo ridurre il numero di pagine.. servono a coprire tutte le destinazioni del mondo.
Può essere che ci ha penalizzati perchè l'utente entra nel sito ed esce subito?
**
Mese di ottobre fino a prima del calo per tutte le key:**
Pagine/visita: 3,29
Durata media visita: 00:02:44
**
Mese di ottobre fino a prima del calo per una key penalizzata:
**Pagine/visita: 2,05
Durata media visita: 00:01:37Può essere questo il problema??
Tornando al discorso contenuti, creare dei testi adhoc e unici per le pagine che vogliamo spingere di più risolverebbe la penalizzazione almeno per quelle determinate pagine?