- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Analisi filtro duplicazione google
-
@margheritebianche said:
- le pagine "elenco" sono tutte indicizzate e oltre alla struttura tabellare una buona parte ha anche del testo dettagliato e univoco (ad esempio: http://www.irolli.it/genova.php/opz=ZB)
Questi elenchi:
I palazzi nel rollo del 1566
I palazzi nel rollo del 1588
I palazzi nel rollo del 1599
I palazzi nel rollo del 1614
I palazzi nel rollo del 1664Sono privi di contenuti testuali e le pagine risulteranno duplicate al 80 o 90 percento.
Capisco che qualche pagine si possa differenziare, ma dovresti guardare ai contenuti complessivi.
- il sito non ha più struttura tabellare, almeno nel suo layout
Mi riferivo alle tabelle utilizzate per gli elenchi. Ogni link alla pagina dei palazzi è imprigionato in una cella, senza testo descrittivo vicino, fuori da ogni contesto. Tecnicamente, è qualcosa che si avvicina molto ad una link farm: lunga lista di link decontestualizzati in una pagina priva di altri testi.
- Lo spider passa abitualmente anche sulle pagine interne dei palazzi (che ripeto, erano indicizzate fino ad una settimana fa!)
Questo elemento lo fa somigliare ad un recente bug di Google, sono stati segnalati altri casi simili negli ultimi giorni.
Personalmente ho notato che questo problema si manifesta spesso con siti con testi tabellari (ovvero poche parole inserite in celle di tabelle).
Quindi, invece di attendere che Google aggiusti le cose, questa potrebbe essere un'opportunità in più per tematizzare meglio i link del sito (una mappa del sito sarebbe una buona cosa), evitare l'esistenza di pagine troppo simili (vedi gli elenchi) e incrementare la popularity.
-
hai messo su la sitemap di Google ?
-
@nbriani said:
hai messo su la sitemap di Google ?
No!
Ma le pagine erano già tutte indicizzate da tempo!
-
consiglio:prova a metterla su allora...
io ho risolto diversi errori di indicizzazione di siti con un numero alto di pagine che o mancavo dall'indice o erano indicizzate senza descrizione...
-
Però qui stiamo parlando di pagine che erano indicizzate e non lo sono più...
-
la mia esperienza con siti DINAMICI che generano un gran numero di pagine da db di contenuti piu' o meno molto simili fra loro, è che sia il numero delle pagine indicizzate che le modalità di visualizzazione non è "stabile" su gg.
Ho potuto constatare con molto piacere, pero', come l'inserimento di sitemaps, anche a siti esistenti e indicizzati da tempo, abbia stabilizzato e migliorsato DI MOLTO il "fenomeno"...
Poi fai come credi, ma non mi sembra che ti possa far male.. soprattutto ora che attraverso la sitemaps si ha accesso a diverse informazioni sull'impatto degli spider sulle pagine...
-
Non per farmi pubblicità ma ne ho giusto parlato ieri sul mio blog, proprio del tema del [url=http://seo.nicolariva.it/calo-delle-pagine-indicizzate/194/]calo delle pagine indicizzate e te lo dico perchè anche io ho riscontrato la tua stessa situazione. Quello che 'ieri' non veniva considerato come contenuto duplicato, 'oggi' invece lo è. Nel mio caso era dovuto a un palese errore tecnico che replicava le meta-description in tutte le pagine e comprendo appieno la reazione di Google, ma credo che il filtro del contenuto duplicato sia stato di recente modificando, diventando più cattivo.
La soluzione del problema sta proprio nel fare apparire quelle pagine che secodno google hanno contenuto duplicato come differenti. Aumentando testi, diminuendo ripetizioni..e poi fornendo una buona mappa (sia google sitemap) che non, per fargli riprendere ogni pagina nell'indice.
-
Nel tuo blog scrivi quello che LowLevel diceva poco fa, ossia che "se google visualizza la dicitura 'ripetere la ricerca...' allora quelle pagine sono non considerate".
Nel mio caso le pagine non ci sono neanche cliccando su "ripetere la ricerca". Non ci sono proprio.
E nell'esempio di prima (http://www.irolli.it/genova.php/opz=PALAZZO/dir=largo_zecca_4) dove i contenuti ci sono, non sono duplicati (almeno cercandoli non si trovano in google) e il testo é predominante rispetto a tutto il resto, davvero mi é difficile pensare che sia un filtro duplicazione (e così per le altre 150 pagine).
Sono d'accordo su sitemap e tutto il resto, ma se uno scrive una pagina di contenuto completamente originale, se questa pagina é già indicizzata completamente, cos'é che può aver fatto scattare il filtro???
Premetto che in questo caso specifico, per questo sito, non ho interessi particolari ad indicizzare le altre pagine, in fondo ben pochi cercano "largo zecca 4".
L'interesse é capire grazie al fatto di avere contenuti sicuramente unici, perché é scattato un filtro di questo tipo.
-
Dovrei darci un'occhiata con maggior tempo a disposizione, ma scusa, le pagine di cui lamenti la perdita di indicizzazione son linkate e collegate da pagine che vengon giudicate da Google come pagine di contenuto duplicato o sbaglio?
A me sembra sia cosi..e forse potrebbe dipendere da questo. Se Google reputa la pagina XYZ affetta da contenuto duplicato in modo da sostanzialmente celarla nel suo indice, perchè dovrebbe invece far risaltare le pagine linkate da quelle che son penalizzate? A me sembra logico come discorso...ma è una mia ipotesi..
-
No, le pagine che linkano non sono "sospette", sono negli indici correttamente. facendo site:www.irolli.it/genova i primi 8 risultati sono tutti elenchi in cui sono presenti i palazzi.
Chiaro, fosse scattato il filtro lì era corretto non trovare niente a livello inferiore. Ma così...Riprovo a sintetizzare i punti salienti:
- ho cambiato layout
- c'era un sito, fino all'anno scorso (palazzideirolli) che é stato utilizzato come spam siccome l'abbiamo fatto scadere (nostra culpa) in cui prima c'erano le stesse schede
- [me n'é venuta in mente un altro] una decina di giorni fa é stato inserito nella directory di virgilio, in sostituzione al sito SPAM (dietro mia richiesta)