• User Attivo

    Ciao a Tutti,
    proseguo qui la discussione iniziata su twitter con Valerio e Valentina.

    Al momento non abbiamo ulteriori informazioni, ma la questione si era soffermata su: "Google da più valore a contenuti aggiornati che si trovano sulla stessa pagina di origine (quindi la stessa viene aggiornata) o a quelli presenti in una nuova pagina?"

    Facciamo un esempio pratico: un'evento pubblico (partita di calcio?)

    Noi abbiamo il nostro sito web in cui creiamo un articolo dedicato alla partita in questione. Ammettiamo di dover aggiornare i risultati della partita in tempo reale.

    I due casi sarebbero:

    • Aggiorno la stessa pagina con il risultato
    • Creo una nuova pagina per ogni goal

    Quale delle due versioni piace ora a Google?

    Secondo SearchEngineLand > "Google now tells us that one of the freshness factors — the way they determine if content is fresh or not — is the time when they first crawled a page. So if you publish a page, and then change that page, it doesn’t suddenly become “fresh.”

    Sembrerebbe che google si affidi quindi alla data del primo crawl, ma questo provoca due problemi/pensieri (a mio avviso):

    1. Su quali basi una nuova pagina contiene più valore rispetto ad una pagina con lo stesso contenuto aggiornata di volta in volta
    2. Cosa succederà ai nostri siti se per "ogni aggiornamento" dobbiamo creare una pagina nuova? Ciò significherebbe dover gestire strutture di siti con informazioni semi rindondanti (con conseguenti problemi di navigazione per l'utente

    Detto questo, due sono le considerazioni che faccio

    1. Tra il dire e il fare... ovvero se è vero che per Google (ed i motori di ricerca in genere) l'importante è il contenuto e la qualità, questa dichiarazione non è sulla pagina ma sul contenuto
    2. Predicare bene, razzolare male... ovvero Google con questo modo cerca di mettere qualche pezza a un limite che ha da tempo (trovare contenuto sempre nuovo), cercando di risolvere altre conseguenze derivate (capire l'originale in caso di duplicato)

    Queste le mie prime idee a caldo sul fatto, continuerò a pensarci e vediamo se trovo altre idee (o se riesco a smentirmi da solo) ;D

    Attendo vostri pareri

    Ciao!


  • Super User

    Ciao Mattia, ottimo intervento il tuo.
    Personalmente, credo che la suddivisione vada fatta anche per i tipi di sito:

    • siti di news
    • blog et similia

    Nel primo caso, credo sia inutile creare una doppia news, soprattutto per le notizie flash. Parliamo della sovraccitata partita di calcio, per esempio. Non ha senso pubblicare una doppia news che aggiorni il risultato. Lo trovo davvero inutile.

    Viceversa, per articoli tematici pubblicati tempo fa, può esser utile aggiornare il contenuto creandone di nuovo. Io farei così. Mettiamo il caso io abbia scritto un articolo sulle landing page di Facebook 3 mesi fa. Mettiamo il caso io abbia sostenuto che siano uno strumento inefficace e poniamo che io sia stata smentita più e più volte nel corso dei 3 mesi intercorsi dalla pubblicazione. Quello che farei sarebbe:

    • pubblicare un nuovo articolo che parli delle landing page di Facebook;
    • inserire un link che rimandi al vecchio articolo.

    In questo modo, oltre ad aver creato un contenuto fresco, farei anche del bene a me stessa con un rimando interno al mio blog.

    Voi che ne pensate?


  • User

    Bisognerà vedere come viene implementato.
    In linea teorica potrebbe fare la felicità degli spammer.


  • User Attivo

    Nessuno sospettava di questo aggiornamento anche prima della notizia?

    Si dice:da oggi, ma non è che è da qualche settimana o almeno da qualche giorno che è già entrata in funzione questa modifica?


  • User Attivo

    Ciao Egidio,
    si, le modifiche sono sicuramente già in atto: google è da ormai diversi mesi che si è concentrato sui contenuti e sulla loro freschezza.

    Tuttavia il dubbio rimane, non avendo case study da analizzare (o almeno non per il momento).

    Freschezza del contenuto o della pagina? Questa è la risposta che al momento stiamo cercando... 🙂


  • User Attivo

    Che la freschezza di contenuto sia un parametro che influisca il rank lo si è sempre saputo. Forse tra i 200 fattori, Google sta alzando il peso che attribuisce a tale parametro.

    Sicuramente la freschezza di contenuto non è una novità. La novità potrebbe essere che tale parametro/fattore incide in maniera più considerevole rispetto al passato, per come lo conoscevamo.

    Il quesito come dice giustamente @MattiaSoragni è se la freschezza considerata da google, sia della pagina o del reale contenuto

    Mi sa che c'è da riprendere in mano anche il brevetto di google sulla comprensione delle date nei blog associate ai contenuti... ovviamente penso come mostra la slide citata qui nella discussione dal carissimo @vnotarfrancesco, che la tematizzazione e l'attinenza faccia sempre da padrone.


  • User Attivo

    @egidio said:

    Nessuno sospettava di questo aggiornamento anche prima della notizia?

    Si dice:da oggi, ma non è che è da qualche settimana o almeno da qualche giorno che è già entrata in funzione questa modifica?

    Ho dei fortissimi sospetti anche io a riguardo a giudicare l'andamento di alcuni miei siti.


  • User Attivo

    Bhe se agisce sul 35% delle ricerche è una cosa importantissima. Tuttavia bisogna vedere e capire con quale impatto o forza di cambiamento agisce al di là su quante ricerche. Cioè quanto peserà effettivamente.
    Soprattutto per le keywords contenenti date ad esempio tipo "europei di calcio" "olimpiadi" "grande fratello" e così via.


  • Moderatore

    Mi sembra una modifica abbastanza prevedibile, solo che questa volta ha un nome 🙂

    L'unico dubbio è quello sollevato da Mattia, citando SE Land; mi sembra strano che l'aggiornamento possa avere una pecca così macroscopica, penso che farà fede la data/ora di aggiornamento, sarebbe veramente troppo grossolano.

    Sul fatto di migliorare i risultati.. Secondo me è un ni 🙂 In varie occasioni la freschezza dei contenuti - che anche prima contava - si dimostra penalizzante per la qualità dei risultati in SERP, si rischia un attacco di post di qualità medio-bassa; in altri casi, vedi query specifiche per partite di calcio, aggiornamenti su eventi & co. invece la freschezza è quasi sempre un ottimo parametro.

    Da specificare tra l'altro che il 35% è relativo alle ricerche e non alle keywords!


  • User Attivo

    C'è da dire che quel dettaglio sulla pagina l'ho vista solo su SELand... nel post ufficiale di google non mi sembra di averlo visto.


  • User

    Dalle prove che ho fatto sembra riguardare solo le news, infatti, non hanno fatto altro che prendere il mini campo di google news e lo hanno inserito nella serp completamente.

    Voi avete provate qualche key generica dove riportava solo gli ultimi contenuti inseriti?

    Se è così solo sulle news è diventato un google liquida, sarà la volta buone che un aggregatore possa funzionare?!?!?! 😄

    E poi se ci fate cosa le notizie non sono in ordine di inserimento ma sono un pò mischiate, ora bisogna vedere se per via di un aggiornamento della pagina oppure vale sempre il discorso di trust, pr, link, ecc.....


  • Community Manager

    **3 anni e 8 mesi fa Google ha implementato questa cosa 🙂
    **
    Nel forum gt, a inizio 2009 discutemmo di questa novità: http://www.giorgiotave.it/forum/google/105699-data-nello-snippet-prima-della-descrizione.html#post616578

    In quell'articolo, potete vedere qui l'effetto che accadeva al Corriere se aggiornava l'articolo.

    Chi mi ha seguito durante i gt study days del 2009 o 2010, si ricorderà sicuramente della frase: pensate quanto sarebbe bello cercare oggi cosa pensavano i nostri nonni della seconda guerra mondiale. Ecco, i nostri nipoti potranno fare ricerche storiche molto precise, su di noi e sul mondo.

    Le ricerche storiche saranno uno dei rami più importanti.

    La data di validità di un documento per Google è anche citata a pagina 192 e 193 di SEO Power 😉

    Google, tra le altre cose, permette ci cercare gli articoli validi in un intervallo di date.

    Questa storia delle olimpiadi, del cercare olimpiadi ed escono articoli sulle prossime olimpiadi, è vecchia.

    Poi ci fu il vero e proprio Real Time, con l'integrazione dei social e tutto quanto.

    Oggi, questo, è un importante upgrade storico.

    Prima di Caffeine il sistema non funzionava benissimo e inoltre Google faceva fatica a:

    • aggiornare rapidamente un numero decente di siti web
    • elaborare in modo più dettagliato i dati

    Con Caffeine, Google ha rivoluzionato questo sistema che lo porterà a:

    • aggiornare tantissimi siti in modo rapido
    • incamerare parecchi più dati (si creerà anche un database eventi più preciso di quello che già aveva)
    • elaborare questi dati in modo migliore

    @mattiasoragni said:

    Noi abbiamo il nostro sito web in cui creiamo un articolo dedicato alla partita in questione. Ammettiamo di dover aggiornare i risultati della partita in tempo reale.

    I due casi sarebbero:

    • Aggiorno la stessa pagina con il risultato
    • Creo una nuova pagina per ogni goal

    Quale delle due versioni piace ora a Google?

    La prima soluzione è quella che è sempre piaciuta a Google. Con questo cambio, Google potrà verificare più siti che si comportano in questo modo e avere un dato più significativo. Quindi queste pagine avranno una visibilità maggiore per quelle ricerche 🙂

    @mattiasoragni said:

    Secondo SearchEngineLand

    Sembrerebbe che google si affidi quindi alla data del primo crawl, ma questo provoca due problemi/pensieri (a mio avviso):

    1. Su quali basi una nuova pagina contiene più valore rispetto ad una pagina con lo stesso contenuto aggiornata di volta in volta
    2. Cosa succederà ai nostri siti se per "ogni aggiornamento" dobbiamo creare una pagina nuova? Ciò significherebbe dover gestire strutture di siti con informazioni semi rindondanti (con conseguenti problemi di navigazione per l'utente

    Se SEL ha detto questo si sbaglia, semplice 🙂

    Google ha potenziato il suo sistema, probabile che ci sia un crawler specifico (non mi sono mai occupato di questo aspetto).

    La data del primo crawl non c'entra niente.
    Chi ha tempo e pazienza si legga il primo articolo sopra, abbiamo fatto parecchi test in merito, Google è in grado da tre anni di capire quando una stessa url presenta dati aggiornati.

    Lo faceva sia per gli articoli che aggiornavamo dopo la pubblicazione, sia prendeva in esame l'ultimo commento per stabilire la validità dello stesso.

    **In pratica oggi Google ha sviluppato un algoritmo migliorativo di tutto quello che ha già appreso in questo ramo di ricerca **:)

    :ciauz:


  • Super User

    Mi sembra un cattivo sostituto della defunta ricerca realtime. Quelle poche volte che cerco novità dell'ultimo minuto io penso di continuare ad andare su twitter.

    Spesso poi ho l'esigenza opposta, non mi interessa l'aggiornamento dell'ultimo giorno, che tanto trovo scopiazzato in tanti siti e feed, ma voglio capire come è partito il tutto, e magari trovare in una unica pagina un riassunto cronologico degli aggiornamenti.

    Questo come utente ... avanzato.

    Come SEO invece ne prendo atto. Quel dato sul 35% delle SERP mi pare esagerato.


  • Community Manager

    @Webmaster70 said:

    Quel dato sul 35% delle SERP mi pare esagerato.

    Un tempo forse. Oggi mi pare un dato corretto, pensa solo a tutte le ricerche sportive 🙂


  • Super User

    @Giorgiotave said:

    Un tempo forse. Oggi mi pare un dato corretto, pensa solo a tutte le ricerche sportive 🙂

    Dici bene Giorgio, ricerche, non SERP come ho scritto.

    Non seguo lo sport, come utente sono atipico e quindi non faccio testo, a me sembra tanto comunque.


  • ModSenior

    Ulteriori aggiornamenti.

    Google due giorni fa ha inserito una post scriptum per "fare chiarezza"; vediamolo. :rollo:

    image

    Intanto ecco i primi test sui risultati organici pubblicati da Searchmetrics dove possiamo vedere chi, in base alle loro statistiche, ha guadagnato posizioni e chi avrebbe perso visibilità.
    Notate che i numeri riportati non rappresentano le visite!

    Chi vince

    image

    Chi perde

    image

    Possiamo evidenziare degli elementi in comune tra i siti che perdono e quelli che vincono?
    Sulle nostre serp invece cosa sta succedendo?

    Valerio Notarfrancesco


  • Super User

    @vnotarfrancesco said:

    image

    Ah ecco! Così mi pare più credibile. Basta un solo risultato "influenzato" su 10, per far entrare la ricerca in quel 35%.


  • User

    Non conosco tutti i siti degli elenchi, ma a uno sguardo superficiale noto come perdano di più gli 'istitutionals', infatti nei perdenti ci sono molti gov e 2 testate quotidiane, mentre nei vincenti non vedo testate e mi sembra ci siano più siti di svago/intrattenimento... Quindi una sorta di 'liberalizzazione' che però significa un calo nel valore dato dall'autorevolezza?


  • User Newbie

    Io, occupandomi di SEO in ambito turistico, immagino come i siti delle varie strutture turistiche non avranno nessun beneficio da questo aggiornamento mentre saranno avvantaggiati i siti aggregatori di strutture.
    A questo punto cosa proporre ai clienti? Offerte last minute a tutto spiano da promuovere attraverso i soliti canali o attendere sulla riva del fiume il cadavere del mio nemico?


  • User Attivo

    Non picchiatemi se scrivo frottole! Ne ho parlato anche in un altro post, ripropongo la questione per capire se sono stato "vittima" del fresher uptade. Annuncio subito che non si tratta di un aggiornamento, ma di un nuovo contenuto nel mio blog.

    Provate a cercare: accorpamento inps inpdap

    Il mio blog in questi giorni è al secondo posto per un argomento estremamente generico. E la serp indica, accanto l'indicazione dell'url, l'espressione "2 giorni fa", cioè da quando quel contenuto esiste.

    Ho degli amici che si occupano di creazione di siti web e seo e mi hanno dato addosso per questa cosa. Dicono, scherzando, che ho barato 😛