- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Improvvisa penalizzazione di Google
-
Ok attendo gli screenshot di analytics con la ripresa.. Anche il mio sito come il tuo "ha la maggior parte degli articoli composti da un testo dove cambia principalmente soltanto la Regione/Provincia". Con le modifiche che ho apportato il 29 ottobre non ho notato nessun cambiamento.
Ieri ho rimosso i tag strong <u> e <i> in eccesso.
Mi spieghi cosa intendi per mega-menu? io ho lo stesso menu sopra e sotto in tutte le pagine del sito che contiene un link che punta a un sottodominio.
Come keyword density non ho nessun problema per le key principali circa il 4% mentre per le altre key rilevanti circa il 2,2%.Ho anche aggiunto i rich snippet giorno 30 ottobre ma tutt'ora google mi dice dati strutturati non rilevati.
-
Se mi dici il link in privato posso vedere se hai lo stesso problema che avevo io. Per gli screen attendo qualche giorno, comunque sto già notando da sabato e domenica che si sono completamente ripresi !
-
non mi spiego come mai google, quando cerco il nome dominio, ci ha tolto il google place con la mappa a destra nei risultati di ricerca, prima della penalizzazione c'era!
-
io da circa un mese ho avuto una diminuzione dei visitatori del 75% cioè ho meno di un quarto dei visitatori di prima :(. Non so se è il tuo stesso problema ma l'unica risposta al mio l'ho trovata in un articolo in rete
in parole povere per chi non avesse voglia di leggersi l'articolo da circa un mese c'è un nuovo algoritmo Hummingbird (Colibrì) di Google che penalizza i siti che propongono contenuti
cercate colibri su pcworld.it non riesco a inserire qui il link alla pagina, forse non si può ma è tanto che non scrivo nel forum.
-
Ciao Zenas,
il colibrì non penalizza proprio nulla. È semplicemente una nuova infrastruttura del SE.
Ne abbiamo già parlato qui sul forum:
Google Hummingbird Update: Che cosa cambia per i webmaster?
Hummingbird: il nuovo algoritmo di Google
Hummingbird: Google presenta il nuovo e rivoluzionario algoritmo
-
Vi ringrazio per le vostre risposte ma continuo a non vedere segni di ripresa.. posso chiedere se sul forum è presente qualche linea guida dettagliata per scrivere correttamente articoli/post mirati alla linkbuilding per rafforzare il sito?
Penso sia l'Ultima spiaggia prima di farmi un viaggio a medjugorie
-
se può consolarti è quello che è successo anceh al mio sito, per me ha coinciso con il nuovo algoritmo del noto motore di ricerca, infatti dagli altri motori e da altre vie ho gli stessi visitatori di prima, invece dal noto motore meno di un quarto , solo che io non ci guadagnavo granché quindi zero diviso 4 fa sempre zero, mi spiace per te
leggetevi questo pcworld.it/il-colibri-di-google-saccheggia-le-visite-ai-siti-di-contenuto_424420
-
Con tutto questo il Colibrì non è imputabile.
Nell'ultimo periodo la maggior parte dei siti che mi è capitato di osservare sono stati colpiti da Panda quindi fossi in voi controllerei che tecnicamente sia tutto ok.
-
Ciao Juanin ho letto i "requisiti" che si devono avere per non essere colpito da Panda nel blog di google googlewebmastercentral.blogspot.it/2011/05/more-guidance-on-building-high-quality.html
Tra i vari punti "Does the site have duplicate, overlapping, or redundant articles on the same or similar topics with slightly different keyword variations?" questo è il motivo per cui penso abbia colpito il mio sito.
Spiego meglio, nelle 400.000 pagine che ho sul sito fino a settembre avevano tutte lo stesso testo con le parole chiavi che variavano in base alla pagina..questo non ha mai dato fastidio a google dall'uscita di panda ad ora e i robots sono passati migliaia di volte su tutto il sito.
Da due mesi a questa parte abbiamo cercato di migliorare e diversificare i testi in base alle categorie (pensando di essere premiati per questo :p), sostanzialmente abbiamo 30 categorie quindi adesso per tutto il sito abbiamo 30 testi diverse e per tutte le pagine di quella categoria lo stesso testo variato solamente per le parole chiave.
Può essere questa modifica la causa della penalizzazione? come faccio a rendere unici i testi di 400.000 pagine è impossibile!! Rimetto tutto com'era 2 mesi fa?seogenova in MP mi ha consigliato, per come è strutturato il mio sito, di eliminare totalmente il testo dalle pagine e lasciare solo <title>, meta description, h1,h2 e niente testo!.. ma non lo so se sia efficace.
sto iniziando con l'article marketing e link building per rafforzarlo <- questa operazione eseguita correttamente può riportarmi in testa alla serp?in quanto tempo?Il sottodominio (che non ha subito penalizzazioni) ha i testi tutti uguali con la solita variante delle keyword, è stato sottoposto a 4 mesi di seo a inizio anno (linkbuilding e registrazione nelle directory) e ha più di 400.000 pagine!
-
Ieri mi ha penalizzato il terzo sito. Prima solo due su 6 erano penalizzati.
Qui sono quasi sicuro che sia per keywords density.
Però devo dire che i primi due si sono ripresi alla grande, quindi sono fiducioso anche per questo
-
Per rendere uniche le pagine non è necessario per forza aggiungere solo testi diversi su 400.000 pagine.
400.000 pagine è impossibile
Nulla è impossibile.
Io non seguirei il consiglio fornito, ma piuttosto compatibilmente con la capacità di crawling del tuo sito tarerei la quantità di contenuti.
-
spiegati meglio, intendi dire ridurre il numero delle pagine?
-
Potrebbe essere una soluzione, ma bisogna basarsi sui dati in proprio possesso.
Non c'è una regola valida sempre. Ogni caso è differente.
-
Non possiamo ridurre il numero di pagine.. servono a coprire tutte le destinazioni del mondo.
Può essere che ci ha penalizzati perchè l'utente entra nel sito ed esce subito?
**
Mese di ottobre fino a prima del calo per tutte le key:**
Pagine/visita: 3,29
Durata media visita: 00:02:44
**
Mese di ottobre fino a prima del calo per una key penalizzata:
**Pagine/visita: 2,05
Durata media visita: 00:01:37Può essere questo il problema??
Tornando al discorso contenuti, creare dei testi adhoc e unici per le pagine che vogliamo spingere di più risolverebbe la penalizzazione almeno per quelle determinate pagine?
-
Dovrebbe certamente migliorare la situazione, ma io ragionererei in ottica di fare delle pagini utili all'utente.
-
ma di per se sono utili all'utente le pagine.. da queste di "ingresso" arriva ai risultati di ricerca per le vacanze per quella destinazione.. o direttamente all'offerta..
cioè se dai un occhiata alle pagine penso siano ottimizzate per l'utente.. solo il testo non è "utile" all'utente ma lo è x google!
-
Ecco
solo il testo non è "utile" all'utente ma lo è x google!
Perché non fai qualche sistema che genere dei contenuti, link e contesto utile all'utente?
-
ma ci sono già! c'è il motore di ricerca, le offerte in evidenza, la mappa di google per vedere la destinazione, informazioni sul clima, consigli e curiosità (cliccando i pulsanti), un grafico dei prezzi per quella destinazione nei vari periodi,c'era l'opportunità di commentare la destinazione (l'ho tolto xke rallentava il cariamento della pagina).. tutte cose che vengono attivate dopo il caricamento della pagina con ajax.
Quello che l'utente cerca dalla ricerca di google sul sito c'è.
Il problema è google non l'utente! per l'utente sul sito non mancano i contenuti.. cioè non è un sito spam dove l'utente viene fatto girare a vuoto e poi esce. da noi si possono calcolano i preventivi e fare acquisti (non nelle pagine che ha google)...
le 2 pagine a visita sono dovute a pagina di ingresso (quella indicizzata e penalizzata da google) -> risultati di ricerca. e poi escono probabilmente perchè gli sembrano alti i prezzi o perchè sono deficienti e non capiscono come si va avanti.L'unica cosa che mi viene in mente da poter migliorare nella pagina di ingresso è quel testo. che ne pensi?
-
Potresti secondo me trovare il modo di rendere leggibili quei contenuti che carichi in ajax.
-
ci avevo pensato ma poi diventerebbero contenuti doppioni! in quanto ad esempio per le curiosità o il clima per una destinazione i testi sono uguali sia nella pagina di capodanno a newyork che nella pagina di natale a new york e così per tutte le altre destinazioni! proprio per questo li faccio caricare successivamente e li nascondo a google!