• User Attivo

    Ho finalmente capito dov'è il problema leggendo e rileggendo i post in rete di chi ha avuto i miei stessi problemi ...
    Contenuti duplicati e nuovo filtro di BG .....
    Ho rastrellato la rete alla loro ricerca .. e mi sono accorto che apparte qualche rara eccezione ... solo nei Webmaster tool vi era traccia di tali duplicazioni ?!??!

    pannelli_solari.php
    pannelli_solari.php?idH3=PannelliSolari‎

    Tutti i miei link contenevano un parametro idH3=Pannelli Solari che usavo per gestire l'apertura delle sezioni del menu. La site map che fornisco a google invece ha gli stessi URL ma senza parametri. Conseguenza: Dai web master tool da luglio in poi sono cresciuti esponenzialmente le segnalazioni di meta duplicati. Il comando site indica un numero di pagine reali indicizzate che però non venivano mostrate nei risultati principali delle serp se pur presenti mentre il numero indicato dai webmaster tool risultava dimezzato. Pagine indicizzate ma non mostrate o presenti chissà dove ...

    Cosa ho fatto .. ho tolto il parametro dalla URL "martellandolo" pagina per pagina e ho risottomesso la sitemap a Google ed ho aspettato ... un mese dopo lentamente sto risalendo la china, le mie pagine stanno lentamente riacquistando posizioni nelle diverse serp, le pagine duplicate dai webmaster tool si sono dimezzate e quelle che risultano indicizzate sempre dai webmaster tool stanno aumentando settimanalmente e le visite stanno lentamente screscendo nuovamente. I tempi sono quelli di BG quindi a conti fatti due mesi quasi per rivedere le pagine apparire nelle serp !! Se va bene per fine anno riporto le visite ai precedenti livelli !!!

    Google che fatica starti dietro !!


  • ModSenior

    Molto interessanti le tue conclusioni.
    Ti consiglio di leggere anche questo
    http://googlewebmastercentral.blogspot.com/2008/09/dynamic-urls-vs-static-urls.html


  • User Attivo

    Letta la discussione in oggetto mister.jinx .. avevo già trovato alcune info simili in altri post. Nel mio caso specifico posso dire che qualcosa è cambiato da parte di Google dopo l'ultimo export del pagerank .. prima non avevo i problemi rilevati, dopo tale evento ho perso il 50% del traffico. Il comando site non dimostrava deindicizzazione delle pagine mentre dai webmaster tool era evidente un calo delle url registrate (per ora ne ho riprese il 75%) ma dalla serp ero sparito !!!

    Le singole pagine se cercate in modo mirato (chiavi + nomesito) apparivano in prima posizione pur risultando poi introvabili in serp o in caduta libera giorno dopo giorno fino a sparire completamente.

    Il peso di Google nelle visite era passato dal 95% al 60% ora è tornato al 90%

    Per i parametri nell'url tali pagine erano indicizzate con tanto di parametro (a mio avviso non è stato in grado di togliere i parametri) ma essendo presenti nella sitemap senza BG le ha viste come due pagine diverse il che ha generato :

    • Scelta di una della due
    • Valori del PR spezzato in due in quanto per lui due pagine diverse
    • Una sorta di forma di SandBox e l'uscita dalla serp seppur cercando la pagina in forma mirata "parole chiave + sito" risultavano presenti o l'una o l'altra
    • Mi sono poi accorto che una serie di pagine (le più importanti) erano finite nell'indice secondario !!!

    Non potendo sfruttare il modrewrite su ambiente windows mi sono armato di pazienza ed ho modificato tutte le pagine una per una ...

    Per la mia esperienza al di la di quello che dica "Ufficialmente BG" pur non avendo fatto nulla di contrario rispetto alle sue policy ho rischiato di sparire completamente dalle varie Serp. Sicuramente questo è lo stesso fenomeno che sta colpendo molti utenti utilizzatori di CSM che forse senza saperlo si ritrovano con pagine con url diversi rispetto a quanto presente nella sitemap ... autogenerandosi contenuti duplicati
    La mia è un'ipotesi basata su quanto a me accaduto .. quindi prendetela con le pinze e fate le dovute analisi/considerazioni per i vostri casi specifici ... a me ora .. non resta che aspettare che BG disseppellisca lentamente le mie pagine rianalizzandole e riposizionandole nelle relative SERP .. per ora essere ritornato ad avere il 75% del mio traffico medio dopo un mese è già una gran soddisfazione .. per il resto non mi resta che pazientare dopo aver capito che questa è la strada giusta.

    Spero che la mia esperienza possa tornare utile a chi come me si è trovato a picchiare la testa nell'ultimo periodo per trovare una spiegazione accettabile per capire l'origine della caduta in serp.


  • ModSenior

    Ciao mimmob32,

    grazie per aver postato le tue riflessioni e le conclusioni di questo caso.
    Posso chiederti da quanto tempo non variavi i contenuti alle tue pagine prima della discesa in SERP ?


  • User Attivo

    In linea di massima ho rifatto il sito totalmente a settebre dell'anno scorso ... e da li in poi ho aggiunto costantemente nuovi contenuti con cadenza mensile.
    I contenuti "fondamentali" apparte correzioni ortografiche minime sono rimasti pressochè invariati da marzo 2008.

    Mentre tra marzo e giugno ho modificato il codice delle pagine ripulendolo per la validazione W3C ma anche fin li nessun grosso problema rilevato apparte le naturali oscillazioni delle pagine che man mano modificavo (qualcuna ha guadagnato 3-4 posizioni ma nulla di eclatante).

    Per il resto solo qualche esperimentini mirato su qualche pagina per capire cosa succedeva nella serp e in che tempi e qualche aggiustamento a title e description ma niente di entitale tale da giustificare il collasso delle visite da un giorno all'altro comunque.

    L'unica grossa modifica è stata rimuovere il parametro per gestire il menu da tutte le url del sito menu compreso consapevole che avrei rischiato il crollo totale delle visite. Ma nella mia "incoscenza" è andata bene è non ho avuto perdite ma solo un lento e continuo incremento dopo 15 giorni. le pagine lentamente hanno ricominciato a risalire le varie serp riportandosi in posizioni "decenti".

    Quindi in linea di massima non ho aggiunto contenuti nuovi da giugno a settembre .. periodo in cui ho cercato di capire le cause del declino. Settimana scorsa ho aggiunto qualche pagina nuova per spingere alcune delle pagine recuperate (giusto per testare) riuscendo a guadagnare ulteriori posizioni.

    Unico dubbio che ora ho è .. ma i backlink che avevo guadagnato ed in cui ci sono gli url con i parametri saranno ulteriore causa di penalizzazzione !??!! I link di per se sono buoni in quanto il parametro lo gestisco naturalmente nonostante le modifiche ma google che farà ?

    Solo il tempo potrà darmi una risposta !!


  • User Attivo

    a titolo informativo nel mio caso ora Google sta reincludendo le pagine con una media di 5 pagine a settimana almeno nell'ultimo mese (questo è quello che vedo dai WMT) anche i sitelink in precedenza spariti ora nei WMT sono stati rigenerati ..

    Statistiche Sitemap 04-08-2008
    Totale URL: 406
    URL indicizzati: 233

    Statistiche Sitemap 23-09-08
    Totale URL: 432
    URL indicizzati: 347

    Contenuti duplicati dovuti ad utilizzo di parametri nell'URL .. questa la penalizzazione .. praticamente invisibile ma effettivamente ricevuta .... che sia un baco degli olgaritmi di BG !?!? Si capisce solo confrontando i risultati del Site con i dati della sitemap dei WMT e guardando gli alert relativi alla diagnostica del sito riguardando i meta duplicati ... veramente pesante si finisce in una sorta di sandbox.

    n.b.: Attenzione alle gallerie fotografiche .. la mia dovrò capire come sistemarla visto che genera lo stesso problema !!


  • ModSenior

    Grazie ancora per aver postato le tue riflessioni. Aggiungo 2 note.

    1. Il problema te l'avevo segnalato il 4 Agosto 😉
      @mister.jinx said:

    Se puoi utilizza l'URL rewriting per evitare problemi di URL con parametri.

    1. Proprio in questi giorni mi sono accorto di un sito con nuove pagine che non venivano spiderizzate perchè Google seguiva alla lettera quanto riportato nella sitemap in quanto alla frequenza di aggiornamento dei contenuti. In pratica la pagina contenente i link alle nuove pagine era stata settata con la frequenza di aggiornamenti mensile e lo spider di Google non ci stava passando da circa 1 mese.

    Vedo nella tua sitemap degli aggiornamenti orari, giornalieri ma anche annuali. Tieni d'occhio lo spider di Google quando passa sulle singole pagine poi, se vuoi, facci sapere.


  • User Attivo

    Sissi confermo che ci avevi azzeccato ma come ti dicevo avendo hosting win non mi era possibile intervenire .... un solo parametro non pensavo potesse darmi problemi ma la realtà ha dimostrato il contrario !!

    Per la sitemap è un'ottima osservazione la tua .... una forzatura temporanea per fargli fare un giro completo del sito non può che far bene !! Ora ci provo !!


  • User Attivo

    Visto che provar non nuoce ... ho "martellato" fisso nella site map

    <lastmod>2008-09-28T17:12:56+02:00</lastmod>
    <changefreq>daily</changefreq>
    <priority>0.5</priority>

    Se google è cosi "preciso" come dici nei prossimi giorni dovrebbe arrivare pesantemente .. l'ultimo suo passaggio è di ieri 27 .. in genere passa ogni settimana .... ora sto fermo due settimane e vediamo cosa succede !!
    TKS
    🙂


  • User Attivo

    come promesso rieccomi per chiudere il caso .. è stata dura e lunga l'attesa .. 3 mesi per rivedere le pagine accettate e nuovamente in serp nella quale hanno dovuto essere rianalizzate e passare tutta la google trafila per essere ammesse. Tre mesi dopo l'indicizzazione è :

    Statistiche Sitemap
    Totale URL: 438
    URL indicizzati: 376

    e le visite se pur in leggero aumento si sono ristabilizzate intorno alle 400/450 giornaliere.

    caso chiuso .. grazie a tutti per il supporto morale e le preziose indicazioni

    .-)