• Community Manager

    Grazie @pdellov 🙂
    Mi segno questa discussione che ora ho bisogno di qualche giorno di riposo!

    E segnalo questa di tempo fa

    7 Modi per sfruttare l'Intelligenza Artificiale in campo SEO e 5 Motivi per Temerla


  • Moderatore

    @kal sulla generazione di contenuti c'è un grosso equivoco di fondo. Il processo non è mai automatico ma semiautomatico. Che si lavori con modelli few shots (a cui fornire pochi esempi su cui basarsi) o si faccia fine-tuning (gli esempi diventano anche migliaia) ci sarà sempre un man in the loop. Il Copy si occupa del training (input) e della validazione (output). Insomma, non aspettiamoci di usare un tool come Jarvis e chiedergli di scrivere un articolo (ben che vada sarà senz'anima). La scrittura assistita da IA è una "danza" tra scrittore e ia, e imparare a danzare bene non è facile.
    Circa un anno fa riportando qui i risultati dei primi esperimenti che facevo con gpt-3 notavo come la cosa incuriosisse poco (nel corso di una presentazione presso una famosa agenzia seo mi guardavano come stessi parlando di asini volanti), oggi Luxottica usa sul suo e-commerce descrizioni e FAQ generate da T5 (Google) e gpt-3. Meglio comprendere il cambiamento e come usarlo a proprio vantaggio.


    kal 1 Risposta
  • Contributor

    @maxxg ha detto in AI e SEO: come cambia il ruolo dello specialist?:

    oggi Luxottica usa sul suo e-commerce descrizioni e FAQ generate da T5 (Google) e gpt-3.

    Questo è un (e a mio parere attualmente l'unico) uso dei testi generati da IA veramente validi, quello che parte dai dati strutturati e permette di scalare su un inventario di oggetti.

    Ma secondo me parliamo di unicorni, la maggior parte dei testi che vedremo sarà di bassa o bassissima qualità.

    Una classica distribuzione di Zipf 😁


    alepom MaxxG 2 Risposte
  • Moderatore

    Sono d'accordo con ciò che scrive @MaxxG. Ho fatto diversi test anch'io con GPT-3, e ne ho anche fatto un lungo post e diversi video. Come ogni applicazione di questo tipo, è qualcosa che si affianca alle persone per aumentare delle competenze o il rendimento. Non mi stancherò mai di dirlo: non c'è magia 🙂

    In merito alla creazione dei testi delle categorie dell'e-commerce, concordo nell'essere una delle azioni che più mi esalta su sistemi di questo tipo. Con testi brevi, dati di partenza ed algoritmi di NLG (Natural Language Generation) ho visto buoni risultati. Anche in questo caso va monitorata comunque.

    Chiaramente questo è lo stato attuale, e migliorerà molto.


  • Moderatore

    @kal ha detto in AI e SEO: come cambia il ruolo dello specialist?:

    Questo è un (e a mio parere attualmente l'unico) uso dei testi generati da IA veramente validi, quello che parte dai dati strutturati e permette di scalare su un inventario di oggetti.

    Per quanto riguarda i dati strutturati al momento sto sperimentando, dopo aver creato il knowledge graph di un sito, con la creazione degli embedding e la loro visualizzazione con Projector il tool gratuito di
    Google https://projector.tensorflow.org/ che clusterizza i topic trattati (utile ad esempio per creare un sistema di suggerimenti o articoli correlati).
    Un ottimo punto di partenza se si vuole fare topic clustering
    https://wordlift.io/blog/en/content-hub-seo/
    Se non si ha wordlift si può creare comunque un knowledge graph, l'importante ė esplicitare nei dati strutturati le entità (topic) di cui tratta la pagina attraverso le prometti about e mentions e a partire qua queste generare le triple (soggetto-predicato-oggetto) che costituiranno il grafo.
    In una live che faremo presto con @giorgiotave mostrerò The entities Swissknife una app in python che ho sviluppato proprio per individuare i topic di un articolo ed esprimerli in json-ld per iniettarli nel proprio schema.

    Tornando alla NLG per e-commerce, consiglio la visione di questo webinar che si è appena concluso


    in cui, anche senza nominarlo, viene mostrato il lavoro fatto da Andrea Volpini per Luxottica. Credimi, le descrizioni di prodotto (con le categorie è in un certo senso più facile) sono non solo indistinguibili da quelle scritte da un copy abile, ma generate dopo un addestramento che tiene conto del tone of voice dell'azienda e dei vari brand per cui essa produce occhiali, e i testi risultanti sono declinabili anche al maschile o femminile, o comunque dinamicamente presentati in base all'utente che naviga il sito.
    La sola generazione di FAQ ha portato a risultati piuttosto impressionanti.
    La nuova frontiera della automazione sta nel rendere semiautomatica la validazione dei risultati, laddove il dataset per fare il fine-tuning rimane "a carico" di un copy.
    Nel webinar si accenna a https://snorkel.ai/ il tool sviluppato a stanford che usa anche Google per il labeling automatico dei dataset e la successiva validazione (nel caso di Luxottica serve a validare i risultati della 'IA che si occupa di generazione del testo - in questo caso Jurassic-1e T5 - a riconoscere tutti gli attributi e relativi valori rilevanti per i prodotti venduti e generare testi tenendone conto, oltre a tenere conto della SEO inserendo le kw necessarie).
    In generale quello che consiglio è di usare direttamente le API di questi modelli e di fare un training specifico per progetto, e usare
    invece tool per lavori generici in cui bastano few shots (Closerscopy e Frase, ad esempio, permettono di creare dei template nutriti coi nostri
    3-5 esempi e concatenarli in workflow complessi).


  • User Attivo

    Alla base dei contenuti generati da AI, che in breve sicuramente esploderanno, c'è e ci sarà sempre un problema di base: sono e saranno un rimescolamento degli stessi concetti prelevati dalle stesse knowledge base (o come volete chiamarle).

    In pratica saranno scritti in maniera più o meno sofisticata, più o meno piacevoli, ma parlando sempre delle stesse cose.

    Se ci sono 100 competitor che usano sti strumenti, avremo 100 articoli sicuramente differenti, ma che in sostanza dicono le stesse cose!

    Riusciranno questi sistemi di AI a trovare argomenti nuovi?

    Ci vorranno proprio argomenti nuovi, di quelli mai trattati prima (tipo ricerche originali), per emergere?

    O ci vorrà ancora la link building per differenziarsi, visto che la base è di fatto simile?


  • Moderatore

    Grazie per gli spunti innanzitutto!
    Provo a "schematizzare" un po' il problema nel complesso. Distinguerei tre grandi blocchi di applicazione:

    • text generation e simili
    • applicazioni all'analisi
    • applicazioni alla personalizzazione e profilazione

    Per quanto riguarda la text generation, su cui c'è un naturale interesse molto marcato, credo che il "problema" sia simile a quello che si ha su altri temi borderline (vedi link building, pratiche "black hat" e simila.. per riesumare termini quasi sepolti). Ci sono diversi tipi di valutazione da fare:

    • quanto funzionano questi strumenti in termini di puro ranking? Da questa prospettiva francamente la sensazione generale è che si tenda a "sopravvalutare" il motore di ricerca (o meglio, l'intenzione del motore di ricerca di mettere la lente d'ingrandimento su questo tipo di pratiche). Ogni anno provo a rifare quello che chiamo "il test delle traduzioni". Compro un dominio scaduto, lo riempio di contenuti tradotti dall'italiano all'inglese, dall'inglese al francese, dal francese al russo, dal russo al tedesco, dal tedesco all'inglese e dall'inglese all'italiano. Pubblico. Sto ancora aspettando l'anno in cui il sito non farà traffico. Nel 2009 ricordo che si diceva che avrebbe avuto "le gambe corte". Sono passati 12 anni. Discorsi simili possono esser fatti in vari contesti. L'esempio di @kal al SMC sui network di link è lampante. Una cosa simile l'avevo fatta su un network di contro informazione qualche anno fa: con un portatilino e un giocattolino per l'analisi dei grafi si possono far magie (sicuramente di magnitudine inferiore a quelle che può far Google). Ma sono passati anni e i risultati sono ancora lì.
    • quanto funzionano questi strumenti se proviamo a fare valutazione globali? qui il gioco si complica. Che senso ha riempire siti di contenuti di dubbia qualità? Il goal non è quasi mai fare solo traffico. Già in questo caso l'applicabilità di questi metodi si riduce a un sub-set di progetti e/o richiede un forte intervento umano nella definizione dei prompt.
    • quanto è "giusto" usare questi strumenti? Ci sono modi per far sì che sia accettabile usare questo tipo di strumenti? e qui la partita diventa davvero complessa. Questi strumenti però sono a mio parere comunque molto interessanti in contesti in cui si debbano per esempio raccontare dei dati, un po' sull'onda del trend dei Conversational Analytics e degli Augmented Analytics (guardate ThoughSpot, per esempio). Genero contenuti a partire da set di dati: schede prodotto che vengono "raccontate", trend di mercato resi leggibili (nell'analisi tecnica non parliamo di cose nuove, per esempio). L'opportunità "buona" in questo senso a mio parere con tecnologie come quelle a disposizione oggi si allarga: cosa è "dato"? Scrivendo un buon prompt e facendo fine tuning dell'algoritmo questi strumenti possono aiutare a velocizzare il lavoro di chi scrive.

    Proprio su quest'ultimo punto secondo me c'è spazio per interrogarsi senza dover vedere questi strumenti come "l'evoluzione dello spinning" (non minimizzo il problema, che sicuramente ci sarà e sarà anche la prima cosa ad esser vista come opportunità, purtroppo): nella scrittura di un contenuto "l'idea", la componente chiave, non rappresenta sempre il 100% del contenuto e un supporto nella componente "meno creativa" può essere senza dubbio utile. Inoltre non sempre nel testo abbiamo bisogno di pura creatività - anche una buona rielaborazione, aggregazione delle fonti e dei concetti può esser utile. Qui il ruolo del copy può esser proprio quello di definire "scheletri" e "fonti" per il contenuto.
    Anche il tema dell'aggregazione, gestito in modo meno becero che in passato, può diventare estremamente interessante. Seguo con interesse l'esperimento dell'amico @filtro con https://ai-summary.com/ che sta diventando una delle principali fonti che seguo per aggiornarmi su temi relativi all'AI: raccolta di news, selezione, classificazione e summarization astrattiva. Intervento umano ridotto alla selezione delle fonti e alla pulizia dei dati (non poco, direi).

    Chiudo con una cosa: siamo sicuri che la parte più interessante sia nella generazione dei testi? Sembra sicuramente più sexy, ma secondo me le potenzialità vere non sono qui, quanto nel supporto all'analisi e nell'ottimizzazione di processo.


    luca alepom kal 3 Risposte
  • User Attivo

    @pdellov ha detto in AI e SEO: come cambia il ruolo dello specialist?:

    Chiudo con una cosa: siamo sicuri che la parte più interessante sia nella generazione dei testi? Sembra sicuramente più sexy, ma secondo me le potenzialità vere non sono qui, quanto nel supporto all'analisi e nell'ottimizzazione di processo.

    Si concordo, ottimizzazione di processo è l'aspetto dove impatta di più-

    la questione complicata è proprio come integrarlo in un processo e comprendere quanto valore da.


  • Moderatore

    @pdellov, grazie per queste riflessioni che trovo preziosissime.
    Dico la mia su un concetto. Sono d'accordo quando dici che gli algoritmi (del motore di ricerca) sono sopravvalutati. Però non credo sia un motivo di "sedersi". Intendo dire che oggi sono sopravvalutati, ma accelerano velocemente (appunto si parla di tecnologie esponenziali), e come ho detto nel mio intervento in sala SEO, il progresso che abbiamo visto da 10 anni fa ad oggi probabilmente non sarà lo stesso che vedremo nei prossimi anni.

    Nei test che ho portato, ho messo alla prova i segnali e la coerenza delle informazioni online. E sinceramente, pur avendone viste di tutti i colori, mi ha colpito molto la reazione e la comprensione delle correlazioni e dei concetti.

    È comunque solo una nota per arrivare al concetto dell'ultimo post con le considerazioni di @luca e di @pdellov.

    Grazie 🙏


  • Contributor

    Riprendo il messaggio di @pdellov ma al contrario 🙃

    Chiudo con una cosa: siamo sicuri che la parte più interessante sia nella generazione dei testi?

    Secondo me no. Ma la generazione di testi è certamente il sogno di tanti SEO che ancora non hanno rinunciato ad invadere le SERP lavorando sulla scala piuttosto che sulla qualità. Per questo io credo ne sentiremo parlare tantissimo.

    Sta già succedendo.

    • quanto è "giusto" usare questi strumenti? Ci sono modi per far sì che sia accettabile usare questo tipo di strumenti?

    Concordo appieno con te, come detto sopra il territorio "rendiamo narrabili dei dati strutturati" è una bella opportunità. Io personalmente preferisco il numero nudo e crudo, ma una narrazione lo rende comprensibile ad un pubblico più ampio.

    È un'opportunità di miglioramento della comunicazione. Per me PROMOSSO.

    • quanto funzionano questi strumenti se proviamo a fare valutazione globali? qui il gioco si complica. Che senso ha riempire siti di contenuti di dubbia qualità? Il goal non è quasi mai fare solo traffico.

    "Quasi mai" direi certamente in un'ottica di business evoluto. Ma lo spam non muore mai 😄

    Oltretutto bisogna mettersi un po' nella testa dei nostri colleghi: l'obiettivo non è riempire "i siti" di contenuti. L'obiettivo è riempire LE SERP.

    Il che ci porta alla domanda successiva...

    • quanto funzionano questi strumenti in termini di puro ranking?

    Il punto secondo me è: quanto sarà bravo Google a tenere fuori dalle SERP lo spam fatto in questo modo? Secondo me farà molta molta fatica. Ho già visto alcuni casi di studio (non li trovo, se riesco a recuperarli ve li linko) dove con valanghe di testo generato si otteneva traffico con trend di crescita costante.

    (giusto come esempio, questa discussione su BlackHatWorld mi pare decisamente emblematica, in particolare questo post)

    Ricordiamoci che il beneficio principale dell'AI è quello di poter scalare velocemente... ed io mi aspetto che per questo verrà utilizzata.

    Chiudo come hai aperto un po' per archiviare personalmente il discorso generazione del testo e provare ad andare oltre...

    @pdellov ha detto in AI e SEO: come cambia il ruolo dello specialist?:

    Provo a "schematizzare" un po' il problema nel complesso. Distinguerei tre grandi blocchi di applicazione:

    • text generation e simili
    • applicazioni all'analisi
    • applicazioni alla personalizzazione e profilazione

    Io sulle applicazioni all'analisi devo ancora capire bene che succede. Le applicazioni, diciamo così, commerciali... lasciano al momento il tempo che trovano.

    Ad esempio, i tool che fanno clustering di parole chiave mi hanno fin qua lasciato MOLTO a bocca asciutta. Io clusterizzo ancora a manina ed in alcuni casi (di cui uno recente) cambio proprio metodologia in corsa. Una cosa impossibile da fare con dei tool pensati per sputarti fuori un output standardizzato.

    Idem lato analytics: le correlazioni che tirano fuori i tool (tra cui il tanto decantato quanto mai davvero utilizzato GA4) sono piuttosto freddine, non danno dei veri insight su quello che sta succedendo.

    Le informazioni che si tirano fuori con il classico metodo ipotesi-modello-verifica sono ancora di gran lunga migliori.

    Non so, mi siedo e aspetto di vedere qualche caso di studio interessante.