- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Come verificare e come reagire
-
Come verificare e come reagire
Ciao a tutti,
in queste settimane ho comprato 10 domini ciascuno con all'interno 10 keyphrases che mi interessa indicizzare per bene per la stessa attività.
Ho creato un modello di minisito e l'ho caricata su ciascun dominio.
Quindi al momento ho 10 minisiti:
- con struttura del codice uguale
- contenuto della home page ogni volta sempre un pò diverso (non del tutto perchè l'azienda di cui si parla è sempre la stessa ma ovviamente ho cercato ogni volta di scrivere testi un pò diversi)
- contenuto Chi Siamo diverso
- dove siamo è una semplice mappa google quindi nn può essere diversa
- la pagina richiesta info sempre uguale
- la pagina FAQ leggermente diversa
- link in uscita con rel nofollow nn sempre uguali
- ho evitato di linkare un sito con l'altro
- ho cominciato a mettere backlink da directory
Da due giorni ho un grosso problema sul primo minisito che avevo messo online: assemblaggielettroniciceei.it
(tanto per dare un'idea di cosa voglio dire si possono vedere anche assemblaggioelettronica.it o montaggioschede.it)
Dopo aver inserito un 150 backlink in 2-3gg il sito per la chiave che si intuisce dal dominio è entrato in top10.
E' rimasto lì circa un mese salendo pian piano fino ad arrivare ad essere in quarta posizione.
Ora da circa 2 giorna sembra completamente sparito.
A questo punto mi sono chiesto se possa essere penalizzato.
Ho provato a cercare su google "assemblaggielettroniciceei.it" ed esce primo, ma già se scrivo "assemblaggi elettronici ceei" risulta 46°.
Il che mi pare davvero strano.
Inoltre GG sembra cieco al sito per qualsiasi ricerca in cui sia presenta la combinazione "assemblaggi elettronici".A questo punto mi chiedo se devo pensare di essere stato penalizzato e perchè. Io certo utilizzo la medesima struttura su tutti i domini e lo faccio per pubblicizzare la stessa attività, ma non ho nemmeno creato un network, ne faccio spam di parole chiave. E' come se avessi un template che riempio con contenuti leggermenti diversi almeno per quanto è possibile visto che si tratta della stessa azienda. Certamente non è un copia incolla.
La verifica che ho fatto può voler dire che sono penalizzato? E in questo caso quale dovrebbe essere il motivo?
Se così fosse come me ne tiro fuori? Se pensassi addirittura ad un template completamente diverso per questo minisito google apprezzerebbe?Io davvero al di là della struttura che è sempre la stessa non so per cosa potrei essere sparito dalle serp.
Se qualcuno mi illumina apprezzo molto.
Dominio:
assemblaggielettroniciceei.itMotori:
GooglePrima indicizzazione o attività:
inizio novembreCambiamenti effettuati:
nessunoEventi legati ai link:
iscrizione directorySito realizzato con:
phpCome ho aumentato la popolarità:
ricerca backlinkChiavi:
assemblaggi elettroniciSitemaps:
No
-
Ciao Elaidon e benvenuto nel Forum GT.
Ho guardato i minisiti che hai indicato e ci sono diversi problemi:
- pochissimi contenuti. 4 link esterni di cui 2 a wikipedia non sono, purtroppo, sintomo di qualità per Google.
Aggiungo che il filtro antiduplicazione è un pò più sofisticato rispetto a quello che ci si può immaginare. Adesso controlla di tutto (immagini, video, audio) oltre al testo e quindi per Google è semplicissimo individuare differenze e somiglianze.
-
template grafici troppo duplicati rispetto al testo presente.
Mi riallaccio al punto 1) per puntualizzare qui che rischi le penalizzazioni del brevetto boilerplate. -
hai riportato le frasi iniziali presenti nelle pagine dei minisiti in siti di articoli e directory generando del contenuto duplicato.
-
Il problema è anche il concetto di "leggermente" che hai espresso nella tua richiesta. Nel senso che i filtri di Google sono sofisticati al punto che identificano non soltanto i duplicati speculari 100% ma anche le somiglianze (in questo caso di testo).
-
il fatto di aver fornito 150 backlink in 2 giorni è invece un problema interessante di altro genere. Nel senso che hai dato un boost di visibilità immediata a macchia d'olio al tuo sito e poi questa cosa si è fermata.
Google tiene traccia anche di questo, e non immediatamente gli effetti si fanno sentire.
A mio avviso sarebbe stato meglio "alimentare" Google spargendo gradualmente i link 5-10 magari con interventi settimanali o in giorni alterni.
In attesa di altri pareri e riflessioni spero intanto di averti dato qualche spunto in più.
Ciao,
Buon lavoro
-
Intanto mister.jinx grazie del benvenuto e dell'analisi. Mi hai dato spunti davvero interessanti...leggo ormai da mesi questo forum, ma tra leggere e fare c'è una bella differenza e l'esperienza mi rendo conto che è troppo importante.
Ora punto per punto vorrei ricalibrare il lavoro che ho cominicato a fare. Oggi il sito è 250°. Aggiustando i problemi che hai evidenziato GG ne rivedrà il giudizio nelle prossime settimane/mesi o mi devo aspettare che la penalizzazione sia definitiva?
-
pochi contenuti...già purtroppo lo so e sicuramente con concetti ripetuti. Già qualche volta ho scritto al cliente di darmi più informazioni ma è sempre molto, troppo sintetico. Farò maggiore pressione per avere più info in merito a prodotti, servizi e storia aziendale.
Però un dubbio. Intendi pochi contenuti anche nel senso stretto di poco testo per pagina o nel senso che ci sono poche pagine? -
che GG abbia la capacità tecnologica e di investimento di mettere in campo un filtro antiduplicazione ultrasofisticato non lo metto in dubbio. Ma è in grado di riconoscere le immagini? Ognuna delle immagini che ci sono nei vari minisiti è rinominata e lo stesso vale per il video flash. Certo controllare la lunghezza in byte delle immagini è un attimo ma al di là di quello può fare altro?
-
mi dici che wikipedia non viene considerato da google una fonte di qualità. Io ritenevo che quei link fossero utili per un utente poco addentro al settore; possono servire a capire di che si parla e contemporaneamente in effetti pensavo facessero piacere a GG. Evidentemente non è così. Però parli per esperienza o c'è un modo per riconoscere quali siti sono considerati di qualità e quali no?
mister.jinx ti ringrazio veramente molto, sei sicuramente uno forte, sempre avanti, perchè bisogno esserlo per forza per saper suggerire e trasmettere ciò che si sa. Grazie
Ora mi metto al lavoro
ciau
**
-
-
-
troppo pochi in tutti i sensi. Pagine ricche di contenuto, quando originale, sono ben apprezzate dagli utenti e dai motori.
-
si Google ha esteso il filtro antiduplicazione oltre il testo. Lo leggi qui.
-
outbound link verso Wikipedia vanno bene. Ripeto: se pensi ai tuoi utenti e pensi che quei link siano utili per loro va sicuramente bene.
Ma, almeno a mio avviso, se in un menu principale con 4 link 2 di questi vanno a wikipedia qualcosa non mi quadra.... perchè un'azienda che propone un servizio (che mi dovrebbe parlare di sè) linka invece wikipedia?
Spero comprenda il mio ragionamento....
-
-
Si si ho colto il ragionamento sui link. Diciamo che il mio processo mentale nella creazione della pagina è stato:
- voglio mettere dei link verso pagine che google considera "buone"
- visto che mi serve il punto 1 già che ci sono cerco qualcosa che può essere utile anche per gli utenti e che per forza risulta anche a tema.
Tu in pratica però mi suggerisci di bilanciare sempre bene le cose e quindi meno link hai più devo spalmare le mie fonti. Altrimenti il 50% dei 4 link vanno verso wiki. Magari se fossero 2 su 20 il peso relativo sarebbe minore e il problema che mi vuoi evidenziare nn sussisterebe o quasi. Ho capito bene?
Quindi anche se da un certo punto consideravo oggettivamente una buona cosa suggerire una definizione terminologica ad utenti magari non tutti esperti devo accettare che se scelgo di privilegiare loro potrei perdere un pò di fiducia di google (in questo caso specifico con pochi link).
Sul fatto del contenuto originale è davvero un bel problema.
In sostanza tutte le aziende che fanno questo lavoro utilizzano gli stessi termini. Del resto mi pare anche questo un problema di bilanciamento. Dal un lato non devo far pensare a google di "copiare" da un lato dovrei essere chiaro e diretto con gli utenti che certamente non han mai molta voglia di leggere lunghe pappardelle.Per dire il motivo dell'elenco puntato è che secondo criteri di usabilità dovrebbe essere più leggibile per un essere umano. Ma poi la stessa usabilità mi dice di scrivere contenuti chiari e diretti ed evitare lunghe circumlocuzioni...la stessa mi suggerisce di non esagerare e fare elenchi troppo lunghi dove l'occhio umano al posto che cogliere pochi chiari significati vaga senza saper dove legere per 10 secondi.
Insomma è chiaro il senso di quello che mi dici, ma nn ho sono ben certo di sapere come fare a dire che l'azienda "progetta schede elettroniche" usando termini diversi che non facciano pensare a GG che "copio contenuto" ma che siano altrettanto chiari e diretti per miei utenti.
Brancolo nel buio...se un'azienda fa quello, fa quello...è chiaro che i concorrenti faranno la stessa cosa...come posso esprimerla diversamente...
Ok nn voglio lamentarmi nn serve. La domanda in realtà è se tu hai idea se il filtro antiduplicazione sia programmato in modo da tenere in conto questo fatto, cioè che certe cose le posso esprimere per forza in un certo modo oppure se è così rigido?
-
a parecchi giorni di distanza dalla implementazione di contenuti migliori GG ha ancora in cache il contenuto della visita del 24 nov.
Eppure dalle stats vedo che passa tutti i giorni a controllare. Sapete dirmi perchè? Visita il sito ma non ne aggiorna i contenuti. Dipende dalla possibile penalizzazione? La penalizzazione ha un limite temporale, cioè deve passare un minimo di tempo prima che GG riconsideri la situazione? Nei webmaster tool GG nn mi dice nulla, la richiesta di reinclusione va fatta solo per i siti bannati, nn per quelli penalizzati?Grazie a tutti
-
Ciao Elaidon,
l'ultima volta che Google si è preso le tue pagine mi risulta essere il 20 novembre con 1 pagina in copia cache al 21:
google.it/search?hl=it&q=site%3Aassemblaggielettroniciceei.it&as_qdr=mDa quanto so il nuovo filtro antiduplicazione può essere usato dallo spider di Google in maniera preventiva. Cioè per evitare di spiderizzare contenuti duplicati (e non soltanto filtrarli in fase di rendering sulle SERP).
-
quindi è come dire che se un sito viene già considerato duplicato passerà un pacco di tempo prima di venir riconsiderato...