• Community Manager

    Segnalo qualche risorsa

    Chi è venuto al Search Marketing Connect ricorderà l'intervento che ho fatto insieme a Marco Quadrella dove abbiamo approfondito un po' la storia del linguaggio. Qualcuno ne parlerà anche quest'anno.

    Mi faccio un giro, approfondisco e poi ritorno nel fine settimana qui.

    Fatemi sapere cosa ne pensate 🙂

    :ciauz:


  • User Newbie

    Grazie per l'integrazione, Giorgio! 🙂


  • User

    Ciao a tutti.

    Prima di tutto, un avviso: Google sta utilizzando BERT solo per la lingua inglese, quindi sta affettando le versioni inglesi del motore di ricerca (.com, .co.uk., .ca (inglese, non francese), .com.au., .ie, .in (inglese, non le varie versioni con lingue indiane), .co.za e altri ancora), come pure le ricerche in inglese fatte in ogni paese del mondo (quindi le ricerche e i risultati di ricerca in inglese in Google.it). Questo spiega i movimenti nelle SERP, che chi a che fare con versioni in inglese avrà notato a partire dal passato fine di settimana.
    Un po' come passò con Panda, che si lanciò prima negli USA e solo dopo 6 mesi nei paesi di lingua neolatina, vi consiglio di giocare con query in inglese su Google.com per vedere come funziona e come sta affettando ai risultati di ricerca.
    Secondo avviso: come quando Google lanciò RankBrain, poiché BERT influisce 1 su 10 query, è ovvio che i risultati di ricerca di sono visti affettati e che alcuni siti che prima si posizionavano per le query adesso influenzate da BERT, magari adesso non si posizionano più o peggio (o viceversa). Questo però non è una penalizzazione (questo deve essere meridianamente chiaro): semplicemente, adesso che Google comprende meglio che cosa vuol dire una persona con la sua ricerca, Google presenta risultati più coerenti con quella ricerca.

    Provo a fare un esempio in italiano, che possa in qualche modo essere similare a quello che offre Google nel suo post.

    "Attaccato da" e "Attaccato a" hanno - come per tutti noi umani è evidente - una differenza enorme a livello di significato. La preposizione è quello che fa la differenza. Ebbene, Google - che è una macchina - aveva difficoltà a capire questo e cercava di risolverlo solo analizzando la combinazione di parole a livello letterale.
    Con BERT, invece, adesso è in grado di comprenderlo anche e soprattutto grazie all'analisi del contesto lessicale, semantico e di relazione entre "entità rappresentate dalle parole" (non so come dirlo in altro modo adesso, sorry).

    Per molti aspetti, questo era qualcosa che Google già era in grado di fare anche prima di BERT, però non era un modello perfetto.

    Infatti, prima di BERT, Google analizzava queste relazioni solo in una direzione: "parola" --->
    Adesso è capace di farlo in tutte: <--- parola --->

    Rispondendo, spero, alla domanda retorica di LoreT, come fa Google a mostrarci qualcosa in risposta a una query che usiamo senza sapere realmente cosa cerchiamo?
    In realtà neanche Google lo sa :-).
    Però quello che sa è che migliaia di persone nella stessa situazione hanno terminato raffinando la ricerca in modo X o in modo Y.
    Inoltre, sa qual'è il tuo storico di ricerche e i siti che hai cliccato in Google.
    Per questo motivo, quando realizziamo una ricerca per la prima volta, vediamo una SERP che ci offre opzioni di percorso di ricerca differenti (questo è visibile non solo a livello di ricerca classica, ma anche a livello di navigazione nel Knowledge Graph).
    Sarà il nostro primo click (e quelli successivi) a determinare cosa Google ci mostrerà la prossima volta che realizziamo una sessione di ricerca con quella stessa query.

    Attenti, non che Google non facesse questo prima della settimana passata e il lancio di BERT nell'algoritmo (dopo un anno di test); infatti, io parlai di queste cose già alcuni anni fa (esiste un post mio su Moz su questo tema), ma con BERT si facilità enormemente la vita nel comprendere che cosa vogliamo veramente dire quando cerchiamo una cosa, soprattutto in un intorno conversazionale (voice search con assistant, per esempio), in cui non cerchiamo cose stile robot (hotel siracusa), ma stile umano (Ok Google, mostrami quali sono gli hotel a quattro stelle con miglior relazione qualità prezzo a Ortigia per il ponte dell'Immacolata). Occhio: noi cerchiamo sostanzialmente per domande... per questo non dobbiamo stupirci se Google ha allenato l'algoritmo di BERT con tutte le domande che Google presenta nelle sue stesse SERP nei box "People Also Search" (a parte allenarlo con il corpus di Wikipedia in inglese).


  • User Attivo

    Interessante.. comprendere la grammatica di una "domanda" permette di avere delle query più precise e che raggiungono il vero obiettivo... diciamo che ne dovrebbe essere avvantaggiato chi ha scritto contenuti grammaticalmente corretti.


  • Moderatore

    Da amante dell'evoluzione tecnologica, ritengo BERT un grande passo verso la comprensione dell'intento di ricerca dell'utente.
    Come anticipato da Gianluca Fiorelli, questo percorso Google non lo inizia né lo finisce con BERT.

    Quest'anno ho fatto (e sto facendo) molti test in ambito voice search su diversi assistenti e device, associando i risultati a ciò che accade in serp, e mai come in questo periodo ho visto migliorare la qualità delle risposte da parte di Google. Rispetto all'anno scorso, quando Google Assistant spesso non riusciva ad offrire risposte, oggi è quasi difficile trovare query che diano l'effetto contrario.

    Quello che intendo dire è che, indipendentemente da BERT, l'evoluzione è in accelerazione costante. Il tutto facilitato dall'enorme quantità di dati che Google sta ricevendo non solo dai feedback derivanti dall'utilizzo di Assistant e dall'esperienza degli utenti tra le sessioni di ricerca.. forse dimentichiamo che Big G offre servizi di NLP, ML, Analisi del testo, e molto altro in cloud. Questo si traduce in un training esponenziale nell'associazione tra espressione ed intento e conduce ad una comprensione sempre migliore del linguaggio.

    Chiudo con un esempio di cambiamento che ho notato in questa settimana.

    Tempo fa ho pubblicato questo video in cui si vede che passando dal risultato di Google Assistant a Google Immagini, la query di partenza veniva modificata. La query di partenza non restituiva un risultato zero in serp, mentre quella modificata sì. Come se l'intento venisse riconosciuto correttamente da Assistant, ma la serp non lo confermasse.

    Oggi, anche la query di partenza offre un risultato zero, e non viene più modificata passando a Google Immagini.
    La comprensione del contesto si è allargata ad entrambe le espressioni.


  • User Attivo

    Anche a mio parere BERT muove un passo evolutivo verso la ricerca vocale, che è anche l'ambito in cui logicamente si applicano le direttive sul linguaggio naturale, che poi è anche buona parte della long tail su cui lavoriamo tutti ogni giorno... Poi come ricordato giustamente qui sopra, in Italia non è ancora arrivato, ma immagino possa arrivare presto.


  • Community Manager

    Ora è stato espanso in 70 lingue e c'è l'Italiano: Bert è in Italiano.


  • User Attivo

    @Giorgiotave said:

    Ora è stato espanso in 70 lingue e c'è l'Italiano: Bert è in Italiano.

    Vedo dei movimenti tra le serp. Le cose dovrebbero essere legate.


  • User Attivo

    Più siti, in questa data, hanno preso una sventola non da poco (almeno dai dati di SEOZoom). Mi sa che all'epoca non aveva tanto capito il focus, rileggendomi 😄


  • Moderatore

    Vorrei segnalare il nuovo post di SearchEngine Journal su Bert.
    In effetti c'è ancora molto da studiare e comprendere, e le serp sono destinate a movimentarsi ancora.