• User Attivo

    Ho letto con estremo interesse questo thread: complimenti a tutti. In effetti Google sta creando parecchi problemi anche a me con uno dei siti del mio network. Ne approfitto per condividere anche la mia esperienza.

    Il sito mercatopoli.it con le keyword mercatino usato, mercatino dell'usato, mercatini, mercatini dell'usato ha comuniciato a fluttuare paurosamente, prima con una sola keyword poi con tutte e quattro.

    Ogni circa due giorni, riapparivano nelle serp (2a - 6a posizione) per poi sprofondare in 60a ed oltre. I datacenter risultavano per quelle keywords, assolutamente disallineati (ma solo per il mio sito).

    La prima cosa che ho fatto è stata quella di eliminare il footer, conteneva 5/6 link con delle keyword che puntavano a pagine interne (bolierplate?). Sono risalito per poi sparire di nuovo. Ho rivisto il menù in alto cercando di limitare l'utilizzo di ancore contenenti delle keywords. Poi mi sono accorto che all'interno di un Iframe avevo dei link non funzionanti. Infine mi sono accorto che un link in HP (quello a feedburner) era Invisible... eliminato pure quello.

    A quel punto sono rientrato nelle SERP con tutte le keywords tranne una ... e, dopo qualche ora, sono rientrato con tutte le keywords. Non ho avuto il tempo di brindare che ecco ... sparito di nuovo.

    Infine ho inserito il nofollow per tutti i link esterni (erano link a pagine di terzo livello).... poi ho aspettato senza fare nulla (anche perchè avevo esaurito le idee).

    La situazione è che ogni circa 2 giorni entro ed esco nelle serp, il numero di visite del robot di Google è un po' diminuito (a dire il vero ha avuto un picco qualche giorno prima del caos) e la cache viene aggiornata, come al solito ogni 4/5 giorni circa.

    Ovviamente ho perso visite, ma ho anche notato che i costi per tali keywords su Adwords sono aumentati (quasi raddoppiati). Potrebbe però non essere una cosa correlata in quanto in Adwords ho fatto parecchie modifiche.

    Però ho notato una cosa. Questo sito è l'unico che ha un RSS con Feedburner. Giorgio disse che gli RSS potrebbero essere la causa di queste oscillazioni, altri hanno smentito. Avete dati freschi a proposito?

    Potrei provare a togliere gli RSS... provo a farlo? E poi vi aggiorno?


  • User

    @aljul said:

    Giorgio disse che gli RSS potrebbero essere la causa di queste oscillazioni, altri hanno smentito. Avete dati freschi a proposito?

    Dubito altamente...
    Poi feedburner è di google! :bigsmile:


  • Super User

    @cors4ro said:

    ...
    Uno perchè godado sono 10 anni che esiste e non ha mai dato fastidio la sua struttura.
    Due perchè non può essere paragonato ad una link farm... Abbiamo un milione e mezzo di keyword catalogate gerarchicamente e semanticamente dall'università di milano... Non sono pagine di link a caso senza senso... Hanno l'unico scopo di aiutare l'utente ad affinare la ricerca...
    Non siamo neanche ai livelli di yahoo per pensare di dargli fastidio, e dubito anche FORTEMENTE che yahoo sia penalizzato. Dici quindi che solo perchè riconducibile alla figura di CONCORRENTE dovrebbe esserlo? Scoppierebbe un caso mondiale se lo fosse... Proprio google che "lo fa a fette" con le sue manfrine sui risultati organici iper-trasparenti.
    Le pagine di godado non sono spam, se lo fossero non ci sarebbero migliaia di persone che ogni giorno lo usano come MOTORE DI RICERCA, e non solo arrivandoci da google...

    Ok, allora provero' ad approfondire meglio i concetti che volevo esprimerti.. 🙂

    A intuito ti confermo la sensazione che il tuo caso sia diverso da quelli espressi in questo lungo thread... ti ripeto, penso anchio ad una "penalizzazione" , ma non tanto di natura "tecnica" quanto, aihme' "sostanziale" ...

    Per "penalizzazione tecnica " intendo quel tipo di penalizzazione dovuta a specifici e ben precisi fattori: un div nascosto, un link o del testo nascosto, un link a siti spam dimenticato, un glitch momentaneo di Google, un no-follow da aggiungere, ecc ecc insomma quel tipo di penalizzazione, che penalizza la naturale/giusta "posizione" di una risorsa in Serp a causa di specifici problemi tecnici che una volta individuati e risolti riportano il documento piu' o meno dove era...

    Il tuo caso non pare neanche una di queste benedette "Fluttuazioni" la cui natura e dinamica è ancora sostanzialmente "fumosa"...

    Cio' che temo, e che cercavo di esprimerti come concetto è che la tua a me pare una penalizzazione dovuta ad una rivalutazione aggiornata delle tue pagine, una penalizzazione "di sostanza " e contenuto...

    Non a caso ti suggerivo di leggere a fondo quel documento con le istruzioni date ai propri Quality Rater da parte di Google... il mio parere è che li' dentro sta la risposta ai tuoi problemi... e le tue parole , in parte, mi sembrano confermarlo....

    Se quella che puoi leggere li' è la classificazione "ideale" che ogni documento dovrebbe avere , è molto plausibile pensare che quella stessa classificazione è quella ricercata idealmente ANCHE dagli algoritmi del motore stesso...

    Scusa se insisto leggilo (ho linkato una versione in italiano) e poi dimmi come un QR dovrebbe, secondo te, valutare una pagina come moda.godado.it per uno che cerca come query "Moda" ? (ne prendo una di esempio)

    Tu dici:

    Abbiamo un milione e mezzo di keyword catalogate gerarchicamente e semanticamente dall'università di milano... Non sono pagine di link a caso senza senso... Hanno l'unico scopo di aiutare l'utente ad affinare la ricerca..

    poi giustamente pure aggiungi:

    sono 10 anni che esiste e non ha mai dato fastidio

    Il tuo approccio è prettamente tecnico, è strmaledettamente tecnico ... è talmente tecnico che secondo me tu hai perso di vista "la sostanza". 🙂

    E' vero hai un dominio favoloso, hai trust, backlink, ben 10 anni di anzianità, pagerank 5 o 7, hai una pagina piena di link tematizzati e semanticamente organizzati, hai un codice html pulito, magari w3c, ecc ecc ma , abbi pazienza, cosa offri , che informazioni offri, ad un utente che sta cercando informazioni sulla moda in una pagina come moda.godado.it? 🙂

    Quellla roba li' per un utente/utonto è una pura sequela illogica di parole tutte linkate a ulteriori pagine in cui nuovamente ritrovo una lunga lista di risultati (presi da un ulteriore soggetto terzo: Ask) magari pure inframezzati da una grande quantità di annunci sponsorizzati...

    Quello somiglia tanto, ma proprio tanto tanto ad uno Spam Engine... poco importa cosa c'è dietro io parlo di "sostanza"...

    Io cercavo siti sulla Moda... Io avevo scelto Google per farmi guidare ., per farmi selezionare i migliori siti sulla moda NON Godado... capisci perchè per me quella è una pagina PRIVA di valore? (e perchè ritengo che lo sia anche per Google) ?

    Google è già semanticamente organizzato, google stesso utilizza l'espansione della query, i cluster semantici influiscono le serp del motore.. NON c'è bisogno di Godado ... quelle pagine giustamente valgono oro per Godado e per gli utenti di Godado , sono studiate, tecnicamente ottime, sono un modo ottimo per portare un utente verso dei siti web probabilmente idonei .. ma io avevo scelto Google per questo.. non Goodado! quelle pagine NON portano nulla a Google ne agli utenti di Google!

    Google NON è un meta-motore, Google anzi, ha da sempre l'ambizione di essere il miglior mezzo di Information Retrival online... Google, organizza contenuti, documenti, dati, informazioni, ma non puoi pensare che possa considerare delle pagine che sono esse stesse sostanzialmente SERP dentro le sue SERP abbiano un valore per i propri utenti...

    Diverso sarebbe se l'università di Milano ti avesse fornito un milione di articoli originali (non singole keywords) semanticamente organizzati intorno alla moda e se tu magari avessi messo in piedi una redazione di giornalisti che ne scrivessero ogni giorno contenuti originali... quello si che sarebbe un contenuto che associato al dominio forte, alla anzianità, al trust, a tutti quei parametri "tecnici" di cui giustamente vai fiero, ti dovrebbe portare in alto sulle SERP ... e se cio' non fosse staremmo tutti a cercare una motivazione specifica...

    Quando si dice "Content is King" , non è una frase di circostanza, o la cosa che si dice sempre tanto per dire... ma è la sostanza del posizionamento!

    Tu puoi avere come perfetti e meravigliosi anche il 99% degli ipotetici parametri tecnici che Google utilizza nei propri algoritmi ma se poi non hai "contenuto", contenuto originale, se non offri qualcosa di unico , di valore, se non aggiungi nulla all'argomento.. allora non vali nulla...

    Poi non scordarti che Google non è perfetto... è pieno di problemi, ha continui bug e glitch, qualcosa come 10 miliardi di documenti catalogati in utte o quasi le lingue del mondo, ha discrepanze su data Center, ecc ecc e pure diversi e numerosi algoritmi che agiscono in maniere diverse, in tempi diversi, e su "gruppi" di documenti diversi... non puoi pensare che "sicccome son sempre stato li'" allora quello era il Ranking perfetto e piu' giusto.... non vuol dire nulla... ogni giorno, ogni momento è buono per modificare una SERP, per risistemarla, per rivalutare un documento, per far girare un algoritmo, ecc ecc

    Non trovi? 🙂

    Scusami il prolisso intervento... e ribadisco.... speriamo di sbagliarmi...

    :ciauz:
    Nicola


  • Super User

    Ciò che dice Nicola è condivisibile.

    Ad ogni modo, siccome Godado è ancora in fase di realizzazione e sviluppo non sappiamo come verranno organizzati i contenuti.

    L'idea mi sembra quella di diventare un vero e proprio motore di ricerca alternativo a Google, quindi probabilmente la presenza sul motore californiano dovrà essere solamente in fase di start-up.

    Comunque posso sbagliarmi... 🙂


  • Moderatore

    Segnalo la recente scomparsa (non più di un'ora fa c'erano) dall'indice google di gruppi di pagine caricate intorno ai giorni 8 e 9 luglio e regolarmente indicizzate che sembravano ormai quasi stabilizzate e per così dire fuori pericolo.
    Le pagine del 6 luglio e precedenti invece ci sono ancora, ma l'indicizzazione delle nuove pagine è praticamente ferma.
    Almeno così mi pare, gradite conferme o disconferme di chi si trovasse in analoga situazione.


  • Moderatore

    Chiedo scusa devo rettificare per quanto riguarda l'indicizzazione delle nuove pagine. Una delle nuove pagine che avevo postato circa mezzora fa è stata indicizzata (le altre no).


  • Super User

    Continuo a verificare la deindicizzazione di molte pagine.
    Entrano in serp abbastanza velocemente e ci rimangono per un paio di settimane per poi sparire.

    Faccio presente che il mio sito è un forum e capita sempre più spesso che la prima pagina di un post venga sostituita in serp dalla seconda o dalla terza e così via, come se google dedicasse le sue risorse alle novità, ma di fatto andando a perdere i contenuti di maggior pregio che sono nella prima pagina e che erano stati ben valutati tant'è che occupavano le prime posizioni in serp.

    A questo punto inizio a pensare che abbiano un problema di pure risorse e che quindi tendano a mandare fuori serp contenuti più vecchi a favore dei nuovi seppure meno utili.

    Ma ho anche paura che effettivamente abbiano sviluppato uno o più algoritmi dedicati a blog e forum, quindi siti a regolare aggiornamento, col risultato che le pagine vengono filtrate.

    Non è un problema di linking interno perchè tutte le risorse sono ben lincate in un forum, ed inoltre esiste una sitemap html per ogni sezione e che presenta i relativi collegamenti ai thread oltre che, naturalmente, la sitemap xml inviata giornalmente a google.

    Una svalutazione di blog e forum quindi?
    Possibile che google abbia deciso che blog e forum sono buoni solo per le notizie estemporanee e che non possano essere fonti di contenuti stabili?

    Dobbiamo abbandonare la visione di forum allargato come parte di un progetto che offra anche contenuti statici?
    Se qualcuno vuole offrire un servizio avanzato dovrà necessariamente separare le architetture per non subire questi filtraggi?


  • User Attivo

    Ma per i forum non sarebbe meglio indicizzare le prime e studiare un modo per non far andare in follow google sulle pagine successive?

    Io credo che google stia avvertendo la necessità di stare al passo con l'aumento degli "editori"

    Prima c'erano X siti che bene o male davano contenuti statici, di "scienza", mentre ora ci sono un mare di contenuti di attualità che si affiancano alla "scienza"

    Per la "scienza" ormai wikipedia la fa da padrone e google spinge per i contenuti che wiki non può seguire o che seguirebbe quando sono già vecchi...

    Sono tempi difficili per il generalismo in rete... o i si specializza su un argomento ben preciso e allora le SERP ci danno ragione o diventa dura...

    keiske


  • ModSenior

    @Karapoto said:

    Ma ho anche paura che effettivamente abbiano sviluppato uno o più algoritmi dedicati a blog e forum, quindi siti a regolare aggiornamento, col risultato che le pagine vengono filtrate.

    Di una sorta di Google Answers c'è conferma in questo brevetto.
    Non solo: avendo acquisito Altavista sono proprietari di un altro algoritmo... in grado di identificare e valutare i post dei singoli "agenti" (autori?) intervenuti e classificarli.


  • User Attivo

    Mi spieghi una cosa? Ma lì spiega una idea e la protegge da che altri la implementino prima o oltre all'idea spiega anche nel dettaglio preciso come implementarla e altri possono fare la stessa cosa ma in modi diversi?

    Io coi brevetti non c'ho mai capito niente...

    keiske


  • User Attivo

    @Karapoto said:

    Ma ho anche paura che effettivamente abbiano sviluppato uno o più algoritmi dedicati a blog e forum, quindi siti a regolare aggiornamento, col risultato che le pagine vengono filtrate.

    Una svalutazione di blog e forum quindi?
    Possibile che google abbia deciso che blog e forum sono buoni solo per le notizie estemporanee e che non possano essere fonti di contenuti stabili?

    Dobbiamo abbandonare la visione di forum allargato come parte di un progetto che offra anche contenuti statici?
    Se qualcuno vuole offrire un servizio avanzato dovrà necessariamente separare le architetture per non subire questi filtraggi?

    Quoto perchè mi sono fatto anch'io un'idea simile. Ritengo che ci siano dei test in corso per verificare i risultati (vedi fluttuazioni). Ma in un mondo dove i siti sembrano sempre di più dei blog e i blog sempre più dei siti, trovo la cosa molto ardua.

    Anche perchè ci sarebbe una paradossale contraddizione: come fa Google a pensare di premiare la freschezza di contenuti penalizzando i siti simil-blog?


  • ModSenior

    Ciao Privacy-Impresa,

    la parte "pubblica" dei brevetti che linko spesso spiega l'idea e come questa funzioni a livello macroscopico.

    Riconosciuta la paternità del brevetto, chi ne è proprietario gode della protezione a livello intellettuale dello stesso e del conseguente sfruttamento economico/commerciale.

    Il brevetto è un segreto industriale per cui nella parte "pubblica" accessibile online non vengono svelate in alcun modo le formule che Google utilizza per i suoi algoritmi tuttavia leggendole puoi acquisire informazioni utili anche per il posizionamento.
    [/OT]


  • User Attivo

    Quindi se Tizio deposita un brevetto dove spiega pubblicamente come fare una torta al cioccolato e nella parte privata scrive che usa 100gr di burro 200gr di cacao e la cuoce al forno, se io faccio torte al cioccolato come lui, ma uso 80gr di burro e 250gr di cacao e la cuocio al sole, non violo nessuna regola?

    No, perchè siccome ho sempre delle idee e ho sempre pensato che siano solo idee... a questo punto potrei pensare di depositarle, visto che 2 anni prima di tante idee uscite in questi ultimi 15 anni mi erano venute in mente tutte e adesso ne ho altre che qualcuno magari farà tra due anni... 😄

    keiske


  • Moderatore

    Le pagine di un sito nuovo (dominio registrato il 3 luglio) che sto cominciando a caricare, presumibilmente non ancora classificato come blog o sito, stanno subendo esattamente lo stesso fenomeno di indicizzazione e deindicizzazione altalenante tipico di questi giorni (con tendenza però a stabilizzarsi).
    Nel frattempo il gruppo di pagine di cui segnalavo la scomparsa un paio di giorni fa (riferito a siti più vecchi) è rientrato nell'indice.
    A me sembra, in base a diversi indizi, che questo specifico fenomeno di "deindicizzazione altalenante" (con gruppi di pagine, almeno nel mio caso, che entrano ed escono dagli indici non una sola ma anche due o tre volte) possa essere dovuto a un puro e semplice malfunzionamento di certe risorse che si occupano della distribuzione, che a un certo punto cessano parzialmente di funzionare e restano inattive per un certo periodo, durante il quale gruppi di (nuove) pagine già indicizzate e normalmente serviti da tali risorse sembrano scomparsi dall'indice, per poi riapparire al ripristino della normalità.
    E' possibile che ciò accada a causa dell'attivazione di nuovi algoritmi, capaci a loro volta di creare concomitanti fenomeni di altra natura, ma si tratterebbe appunto di altri fenomeni.


  • Super User

    in entrambi i casi, cambio di algoritmo o problemi di sovraccarico, per chi perde ci dev'essere qualcuno che guadagna, a meno di cali degli utilizzatori dei motori ma, estate a parte, non è questo il caso.

    Si può sapere chi ci ha o chi ci sta guadagnando :)?


  • User

    Il calo visite stando nella mia situazione non dipede principalmente dai motori di ricerca in questo perido.

    Ho 2 siti di cui ottengo il 90% delle visite tramite traffico diretto


    Negli ultimi giorni sto avendo cali del 40% da tutte le fonti.. :mmm:

    Che stiamo dimunuendo in Italia ? O si stanno bruciando tutti i computer ? :eheh:


  • User Attivo

    Ma non è che la gente è andata in vacanza? 😄

    keiske


  • User

    bhè prendessero l'abitudine di portarsi portatili o palmari :eheh:


  • User Attivo

    E' sempre un su è giù. Vi allego un grafico Webseo delle oscillazioni di questo ultimo periodo, spero possa aiutare...


  • Super User

    Le mie pagine, come prevedibile, sono tornate a posto anche se in posizioni leggermente più basse di prima.

    E' un ciclo che si ripete con tempistiche non stabili nella durata ma sempre nella sostanza.

    La cosa interessante è vedere che le pagine "storiche" sono tornate quasi nella stessa posizione ed in più ci sono le pagine più nuove che ora si trovano nella pagina successiva o nella stessa.

    Quindi, lo stesso thread, ora presenta spesso due risultati in serp, la pagina principale in prima pagina e l'ultima pagina(quindi la più nuova) in seconda.