• Super User

    Continuo a verificare la deindicizzazione di molte pagine.
    Entrano in serp abbastanza velocemente e ci rimangono per un paio di settimane per poi sparire.

    Faccio presente che il mio sito è un forum e capita sempre più spesso che la prima pagina di un post venga sostituita in serp dalla seconda o dalla terza e così via, come se google dedicasse le sue risorse alle novità, ma di fatto andando a perdere i contenuti di maggior pregio che sono nella prima pagina e che erano stati ben valutati tant'è che occupavano le prime posizioni in serp.

    A questo punto inizio a pensare che abbiano un problema di pure risorse e che quindi tendano a mandare fuori serp contenuti più vecchi a favore dei nuovi seppure meno utili.

    Ma ho anche paura che effettivamente abbiano sviluppato uno o più algoritmi dedicati a blog e forum, quindi siti a regolare aggiornamento, col risultato che le pagine vengono filtrate.

    Non è un problema di linking interno perchè tutte le risorse sono ben lincate in un forum, ed inoltre esiste una sitemap html per ogni sezione e che presenta i relativi collegamenti ai thread oltre che, naturalmente, la sitemap xml inviata giornalmente a google.

    Una svalutazione di blog e forum quindi?
    Possibile che google abbia deciso che blog e forum sono buoni solo per le notizie estemporanee e che non possano essere fonti di contenuti stabili?

    Dobbiamo abbandonare la visione di forum allargato come parte di un progetto che offra anche contenuti statici?
    Se qualcuno vuole offrire un servizio avanzato dovrà necessariamente separare le architetture per non subire questi filtraggi?


  • User Attivo

    Ma per i forum non sarebbe meglio indicizzare le prime e studiare un modo per non far andare in follow google sulle pagine successive?

    Io credo che google stia avvertendo la necessità di stare al passo con l'aumento degli "editori"

    Prima c'erano X siti che bene o male davano contenuti statici, di "scienza", mentre ora ci sono un mare di contenuti di attualità che si affiancano alla "scienza"

    Per la "scienza" ormai wikipedia la fa da padrone e google spinge per i contenuti che wiki non può seguire o che seguirebbe quando sono già vecchi...

    Sono tempi difficili per il generalismo in rete... o i si specializza su un argomento ben preciso e allora le SERP ci danno ragione o diventa dura...

    keiske


  • ModSenior

    @Karapoto said:

    Ma ho anche paura che effettivamente abbiano sviluppato uno o più algoritmi dedicati a blog e forum, quindi siti a regolare aggiornamento, col risultato che le pagine vengono filtrate.

    Di una sorta di Google Answers c'è conferma in questo brevetto.
    Non solo: avendo acquisito Altavista sono proprietari di un altro algoritmo... in grado di identificare e valutare i post dei singoli "agenti" (autori?) intervenuti e classificarli.


  • User Attivo

    Mi spieghi una cosa? Ma lì spiega una idea e la protegge da che altri la implementino prima o oltre all'idea spiega anche nel dettaglio preciso come implementarla e altri possono fare la stessa cosa ma in modi diversi?

    Io coi brevetti non c'ho mai capito niente...

    keiske


  • User Attivo

    @Karapoto said:

    Ma ho anche paura che effettivamente abbiano sviluppato uno o più algoritmi dedicati a blog e forum, quindi siti a regolare aggiornamento, col risultato che le pagine vengono filtrate.

    Una svalutazione di blog e forum quindi?
    Possibile che google abbia deciso che blog e forum sono buoni solo per le notizie estemporanee e che non possano essere fonti di contenuti stabili?

    Dobbiamo abbandonare la visione di forum allargato come parte di un progetto che offra anche contenuti statici?
    Se qualcuno vuole offrire un servizio avanzato dovrà necessariamente separare le architetture per non subire questi filtraggi?

    Quoto perchè mi sono fatto anch'io un'idea simile. Ritengo che ci siano dei test in corso per verificare i risultati (vedi fluttuazioni). Ma in un mondo dove i siti sembrano sempre di più dei blog e i blog sempre più dei siti, trovo la cosa molto ardua.

    Anche perchè ci sarebbe una paradossale contraddizione: come fa Google a pensare di premiare la freschezza di contenuti penalizzando i siti simil-blog?


  • ModSenior

    Ciao Privacy-Impresa,

    la parte "pubblica" dei brevetti che linko spesso spiega l'idea e come questa funzioni a livello macroscopico.

    Riconosciuta la paternità del brevetto, chi ne è proprietario gode della protezione a livello intellettuale dello stesso e del conseguente sfruttamento economico/commerciale.

    Il brevetto è un segreto industriale per cui nella parte "pubblica" accessibile online non vengono svelate in alcun modo le formule che Google utilizza per i suoi algoritmi tuttavia leggendole puoi acquisire informazioni utili anche per il posizionamento.
    [/OT]


  • User Attivo

    Quindi se Tizio deposita un brevetto dove spiega pubblicamente come fare una torta al cioccolato e nella parte privata scrive che usa 100gr di burro 200gr di cacao e la cuoce al forno, se io faccio torte al cioccolato come lui, ma uso 80gr di burro e 250gr di cacao e la cuocio al sole, non violo nessuna regola?

    No, perchè siccome ho sempre delle idee e ho sempre pensato che siano solo idee... a questo punto potrei pensare di depositarle, visto che 2 anni prima di tante idee uscite in questi ultimi 15 anni mi erano venute in mente tutte e adesso ne ho altre che qualcuno magari farà tra due anni... 😄

    keiske


  • Moderatore

    Le pagine di un sito nuovo (dominio registrato il 3 luglio) che sto cominciando a caricare, presumibilmente non ancora classificato come blog o sito, stanno subendo esattamente lo stesso fenomeno di indicizzazione e deindicizzazione altalenante tipico di questi giorni (con tendenza però a stabilizzarsi).
    Nel frattempo il gruppo di pagine di cui segnalavo la scomparsa un paio di giorni fa (riferito a siti più vecchi) è rientrato nell'indice.
    A me sembra, in base a diversi indizi, che questo specifico fenomeno di "deindicizzazione altalenante" (con gruppi di pagine, almeno nel mio caso, che entrano ed escono dagli indici non una sola ma anche due o tre volte) possa essere dovuto a un puro e semplice malfunzionamento di certe risorse che si occupano della distribuzione, che a un certo punto cessano parzialmente di funzionare e restano inattive per un certo periodo, durante il quale gruppi di (nuove) pagine già indicizzate e normalmente serviti da tali risorse sembrano scomparsi dall'indice, per poi riapparire al ripristino della normalità.
    E' possibile che ciò accada a causa dell'attivazione di nuovi algoritmi, capaci a loro volta di creare concomitanti fenomeni di altra natura, ma si tratterebbe appunto di altri fenomeni.


  • Super User

    in entrambi i casi, cambio di algoritmo o problemi di sovraccarico, per chi perde ci dev'essere qualcuno che guadagna, a meno di cali degli utilizzatori dei motori ma, estate a parte, non è questo il caso.

    Si può sapere chi ci ha o chi ci sta guadagnando :)?


  • User

    Il calo visite stando nella mia situazione non dipede principalmente dai motori di ricerca in questo perido.

    Ho 2 siti di cui ottengo il 90% delle visite tramite traffico diretto


    Negli ultimi giorni sto avendo cali del 40% da tutte le fonti.. :mmm:

    Che stiamo dimunuendo in Italia ? O si stanno bruciando tutti i computer ? :eheh:


  • User Attivo

    Ma non è che la gente è andata in vacanza? 😄

    keiske


  • User

    bhè prendessero l'abitudine di portarsi portatili o palmari :eheh:


  • User Attivo

    E' sempre un su è giù. Vi allego un grafico Webseo delle oscillazioni di questo ultimo periodo, spero possa aiutare...


  • Super User

    Le mie pagine, come prevedibile, sono tornate a posto anche se in posizioni leggermente più basse di prima.

    E' un ciclo che si ripete con tempistiche non stabili nella durata ma sempre nella sostanza.

    La cosa interessante è vedere che le pagine "storiche" sono tornate quasi nella stessa posizione ed in più ci sono le pagine più nuove che ora si trovano nella pagina successiva o nella stessa.

    Quindi, lo stesso thread, ora presenta spesso due risultati in serp, la pagina principale in prima pagina e l'ultima pagina(quindi la più nuova) in seconda.


  • User Attivo

    a me le pagine sono tornate salendo nelle serp quasi tutte (5000 pagine). Spero non siano sali-scendi anche questi momenti 😄

    Ora vado buone vacanze a tutti ci sentiamo a settembre


  • User Attivo

    Anche il mio sito si è stabilizzato, recuperando posizioni con keyword secondarie. Le principali più o meno invariate.


  • User

    anomalie a parte, alcuni post wordpress ho dovuto modificarli e ripubblicarli per una corretta indicizzazione


  • User Newbie

    io ho inserito nuovi articoli al mio sito il 25 agosto e ancora non vengono indicizzate...l'ultimo download di della sitemap è stata fatta ieri (08/09) ma l'ultima scansione di googlebot è stata il 24 agosto...volevo chiedere se è normale o se capita ogni qualche vota di non essere subito indicizzati?

    grazie


  • ModSenior

    Ciao Gia e benvenuto nel Forum GT.

    è una situazione abbastanza normale quella che descrivi, dipende molto da quanto tempo il tuo sito è online e se Google e gli altri searchengine lo conoscono, ovvero se hai almeno 1 backlink che "li informa" dell'esistenza sito.


  • User Newbie

    il sito è online dal 12 giugno, ma finora tutto ok...al massimo un paio di giorni è gli articoli erano indicizzati, ora invece sono quasi 20 giorni e ancora niente...