• Moderatore

    @juanin, ma certo, sono d'accordo.
    Però se diamo una spintarella alle istituzioni perché si rendano conto che c'è del nuovo, secondo me ogni occasione è utile 🙂


  • Contributor

    @alepom ha detto in Una pausa nello sviluppo di AI potenti?:

    e soprattutto di osservare chi l'ha già firmata.

    ELON MASCHIO!!

    E DeepMind.

    Praticamente i concorrenti di OpenAI.

    A pensar male si fa peccato etc. etc. 😂

    @alepom ha detto in Una pausa nello sviluppo di AI potenti?:

    Però se diamo una spintarella alle istituzioni perché si rendano conto che c'è del nuovo, secondo me ogni occasione è utile

    Ecco, su questo va data un'accelerata.

    A partire dalla liceità con cui vengono utilizzati prodotti dell'ingegno (immagini, testi, musica) per addestrare i modelli.

    Perché a meno che il prodotto non sia rilasciato con licenza open (es. Wikipedia) io direi che non si può affatto usare (salvo concessione esplicita). Va bene per la ricerca, ma se parliamo di sviluppare un prodotto commerciale beh...


    juanin kal 2 Risposte
  • Admin

    @kal si concordo che sul piano legale e prodotti dell'ingegno siamo totalmente fuori legge allo stato attuale perché ci sono già fior fior di strumenti che ci stanno facendo business sbattendosene di questo aspetto.

    Credo sia la parte più delicata di tutta la questione.

    Qui va fatta chiarezza subito altrimenti si finirà in un vicolo cieco senza possibilità di ritorno.


  • Contributor

    Eh sì.

    Anche perché qua si sta facendo il gioco delle tre cartine.

    "Faccio ricerca, non sto sviluppando un prodotto, uso il tuo testo perché sono coperto da Fair Use"

    "Hey, guarda che bel modello che ho costruito, sarebbe proprio un peccato non usarlo per farci su dei soldi"

    "Beh ma NEL MODELLO NON CI SONO I TESTI. Posso usarlo legalmente"

    "Pagate 20$/mese per la nostra strabiliante Chat!"

    Un po' fa girare le scatole sta cosa.


  • Contributor

    Ah e per la cronaca, l'altro giorno ho provato a farmi dire da ChatGPT quali sono i siti utilizzati per addestrare il modello.

    È blindatissimo, non si scuce niente. E da come gira attorno alla cosa si capisce chiaramente che hanno embeddato dei pesi appositi nel modello per ragioni LEGALI, perché se salta fuori quali siti hanno utilizzato finiscono seppelliti di cause.

    alt text

    alt text

    alt text

    alt text

    alt text


    juanin 1 Risposta
  • Admin

    @kal geniale....

    Comunque intanto ecco il primo ovvio pezzo che sarebbe dovuto per forza arrivare https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870847 poi vedremo i vari epiloghi legali su altri fronti rispetto all'AI.


    alepom 1 Risposta
  • Moderatore

    @juanin, come sempre, più chiarezza si farà e meglio sarà per tutti.
    Tuttavia, il provvedimento è più centrato sul trattamento dei dati degli utenti che sul funzionamento dell'AI.

    Apro e chiudo una parentesi: non capisco perché fa riferimento solo a ChatGPT, e non a tutta l'infrastruttura OpenAI (o meglio, temo di sapere il motivo, ma provo a non esternarlo fino al P.S.).

    L'unico riferimento al funzionamento del sistema è dove dice che si rileva "l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT".

    Anche se dentro ai termini di utilizzo e alla privacy policy ci sono diverse informazioni in merito. Anche come evitare che i dati vengano utilizzati per l'addestramento.

    Qui fa un sunto ad hoc: https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance

    Ma non sono un esperto di normative, quindi potrebbero essere insufficienti, anzi, lo sono di certo se è stato fatto il provvedimento. Ripeto, più chiarezza si farà, e meglio è per usare tutto più serenamente. Però credo che sia facilmente risolvibile e spiegabile da OpenAI.

    P.S.
    Quando dice: "Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto", diventa immediatamente chiaro che non si ha idea di cosa si stia utilizzando.


    kal 1 Risposta
  • Contributor

    @alepom ha detto in Una pausa nello sviluppo di AI potenti?:

    Comunque, ripeto, più chiarezza si farà, e meglio è per usare tutto più serenamente.

    Questa cosa è fondamentale.

    P.S.
    Quando dice: "Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto", diventa immediatamente chiaro che non si ha idea di cosa si stia utilizzando.

    Tu dici così perché sai come funziona un LLM. Ma se la guardi dal punto di vista legale, non è affatto strano.

    È la descrizione di un dato di fatto.

    ChatGPT dei dati personali te li fornisce... e l'entità "persona" è comunque collegata ai suoi dati nel LLM (seppure in forma astratta di token)

    Anche se credo che sta cosa l'abbiano patchata di recente perché ora sempre più spesso risponde "non posso e blah blah".


    alepom 1 Risposta
  • Moderatore

    @kal ha detto in Una pausa nello sviluppo di AI potenti?:

    Tu dici così perché sai come funziona un LLM. Ma se la guardi dal punto di vista legale, non è affatto strano.
    È la descrizione di un dato di fatto.

    Questo è davvero un punto cruciale per l'utilizzo di queste tecnologie.
    Capisco benissimo quello che vuoi dire, però capisci anche che, per gli utenti, siamo nel mezzo di un turbine di confusione di una portata degna di nota.

    Non prendermi per un difensore di OpenAI, eh!? Lo dissi diverso tempo fa che non siamo pronti per sistemi come questi rilasciati in questo modo, senza preparazione. Ovvero senza far entrare bene nelle persone le logiche da tenere in considerazione.

    Però nelle istruzioni (Termini di utilizzo), viene specificato in modo abbastanza chiaro che non si tratta di un motore di ricerca e che le informazioni vanno verificate (e che chi usa le informazioni ne diventa responsabile): "Given the probabilistic nature of machine learning, use of our Services may in some situations result in incorrect Output that does not accurately reflect real people, places, or facts. You should evaluate the accuracy of any Output as appropriate for your use case, including by using human review of the Output.".

    È anche vero che un'interfaccia non dovrebbe aver bisogno di istruzioni. Invece, in questo caso, la natura dell'interfaccia e dell'interazione (chat) deviano dalla natura del modello. Perché ti induce a chiedere e a fidarti, mentre nelle istruzioni mette in guardia sull'accuratezza delle risposte.

    Si tratta di una tematica interessante, sulla quale, secondo me, ci sarà molto lavoro da fare.


  • Contributor

    Ah, hai ben ragione da vendere, sia chiaro!

    Però l'aspetto delle informazioni personali è abbastanza cruciale... e un certo numero di informazioni personali come detto comunque sono embeddate nel modello sotto forma di relazioni tra token. È una forma di criptazione, se vogliamo.

    E anche se le suddette informazioni personali sono disponibili pubblicamente... (ti basta essere dentro a Common Crawl e molto probabilmente sei pure dentro al modello di OpenAI) questo non le rende meno personali. E la legittimità del trattamento passa sempre dal consenso (han rotto talmente i cabasisi su sta cosa che dovrebbe oramai essere pacifica), a maggior ragione se si fa un trattamento su larga scala.

    E coi LLM parliamo certamente di una cosa su larga, larghissima scala.

    Ed ogni iterazione del modello, la scala è sempre più grande, sta già succedendo.

    E il punto chiave è: qua da noi la legge impone alle aziende che trattano dati personali di tenere traccia e archiviare il consenso al trattamento dei dati personali.

    Una cosa che un LLM tecnicamente non può fare, perché non è un database, è un predittore di token.

    Da un punto di vista legale/privacy è un buco grosso come una casa.


  • User Attivo

    ...e la cosa diventa ancora più fumosa se l'LLM funziona principalmente come interfaccia.

    Se ChatGPT ha solo il ruolo di captare la richiesta, trasformarla in comandi, fare una query su BIng e "tradurla" in una risposta... dove è la violazione dei dati personali ?

    Su Bing ? O Su Google quando usa Bard ?

    Siamo su una sottile linea di demarcazione... da vecchio elitista, sono favorevole all'accesso a ChatGPT solo dietro presentazione dello Spid 😄


    kal 1 Risposta
  • Contributor

    @quelgareth ha detto in Una pausa nello sviluppo di AI potenti?:

    dove è la violazione dei dati personali ?

    In realtà la risposta è pure facile: nel momento in cui hai preso i dati personali e li hai messi nel modello.

    E la stessa cosa vale per il copyright.

    La tecnologia è fenomenale, l'abbiamo visto tutti direi.

    Ma è proprio perché è fenomenale che il far west non è tollerabile.


  • Moderatore

    Nell'intervista di Flora al Garante, vengono gestite una serie di domande che tutti ci stiamo facendo.
    Ve la linko.

    Anticipo che il vero problema sono i dati di training. E lì sarà la matassa da sbrogliare.

    Altro tema: il provvedimento, o i successivi, riguarderanno tutti i servizi di OpenAI basati sugli stessi principi.
    E probabilmente qui si aprirà un vaso di Pandora sugli algoritmi generativi.

    Ripeto nuovamente.. con @kal, ne parliamo da ottobre (dal pranzo dell'AST 🙂 ) : meglio sbatterci il naso, discutere e fare chiarezza, sperando che ci sia buon senso nell'equilibrio tra sicurezza ed evoluzione tecnologica.
    Ma io credo che le soluzioni ci siano, ad esempio con procedure di gestione dei dati correttive.

    Nel frattempo hanno bloccato ChatGPT in Italia.


  • User Attivo

    Ma come??? Ieri pomeriggio ho chiesto a chatgpt se davvero l'avrebbero chiusa in Italia, e lei mi ha risposto di NO.. Ed ora invece non riesco più ad accedervi? Ma allora questa AI commette errori e spara minkiate come è più dell'essere umano? Caspita, è proprio vero che i robot stanno surclassando l'uomo 😀

    Comunque, con buona pace di chi la ama perché è comoda e gli fa fare quattrini, sinceramente, di motivi per segare l'AI ne vedrei a bizzeffe, e ci metterei la firma a rinunciare subito a tanta tecnologia che ci sta DISUMANIZZANDO, ma che purtroppo, nella maggior parte dei casi siamo costretti ad utilizzare per stare al passo con la concorrenza.

    Intendo dire che in fondo il problema privacy è il minore dei mali. Comunque con una VPN chi proprio non riesce a farne a meno dovrebbe riuscire ad utilizzarla. Vedremo comunque, se che questo blocco si protrarrà per molto.


    alepom 1 Risposta
  • Moderatore

    @daniwebmaster, vedi, il problema maggiore è proprio che non si sta capendo come ha senso usare questi modelli. Se fosse chiaro, non faresti quelle domande a un LLM.


    daniwebmaster 1 Risposta
  • User Attivo

    @alepom Ciao Alepom.. Ma sai, in realtà ne sono felice, dato che credo che la mia forza stia proprio nel non avere tutto questo bisogno di capire come si usa, dato che gli articoli mi sgorgano dalle falangette come acqua fresca anche senza il supporto di chatgpt.. E poi se non l'ho capito io, vallo a spiegare ad un tredicenne o all'uomo della strada.. In ogni modo, per divertimento, gli ho chiesto anche di peggio ahhahha.. Dato che alla fine come ti ho detto, non la utilizzo, se non per ottenere l'elenco di qualcosa.. tipo i libri di un dato autore, che 2 volte su tre mi ha sbagliato dimenticando o storpiando dei titoli.. e lì se permetti, non sono stato io a sbagliare a chiedere, ma è la signorina AI che toppa regolarmente.. Davvero troppo spesso, e spesso in modo infame rigirandoti le cose come se fossero vere.. Tant'è che TUTTE LE RICERCHE consiglio di farle direttamente sul web, almeno finché ne rimarrà di scritto da esseri umani 🙂


    alepom 1 Risposta
  • Moderatore

    @daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:

    non sono stato io a sbagliare a chiedere, ma è la signorina AI che toppa regolarmente

    Questo è l'effetto di aver rilasciato ChatGPT al pubblico senza dare spiegazioni su cosa si sta utilizzando.
    Non si tratta di un motore di ricerca, ma di un modello di linguaggio. Due sistemi completamente diversi.

    @daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:

    TUTTE LE RICERCHE consiglio di farle direttamente sul web

    Ci mancherebbe.. questo è proprio quello che deve fare un motore di ricerca.
    Sono d'accordo con te.


    daniwebmaster 1 Risposta
  • User Attivo

    @alepom ha detto in Una pausa nello sviluppo di AI potenti?:

    @daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
    Questo è l'effetto di aver rilasciato ChatGPT al pubblico senza dare spiegazioni su cosa si sta utilizzando.
    Non si tratta di un motore di ricerca, ma di un modello di linguaggio. Due sistemi completamente diversi.

    Il punto è che siamo di fronte ad uno strumento con dei grossi limiti, e quello più grande è che lui per primo non li riconosce e si presta a fare quello che non dovrebbe fare. A questo punto, mi spiace, ma non basta scrivere in un angolino "l'AI potrebbe dare risposte sbagliate"; perché è normale che se l'algoritmo si presta sempre e comunque a rispondere anche inventandosi le cose in modo così credibile da sembrare vere, ci troviamo di fronte ad un GROSSO RISCHIO che non può essere liquidato con un trafiletto nel disclaimer.

    Questa tecnologia, così com'è è molto pericolosa, e lo ha riconosciuto persino Elon Musk definendola demoniaca. La prima cosa che salta all'occhio ad esempio, è come si rifiuti categoricamente di scrivere un raccontino erotico, ma che poi non si faccia problemi ad inventarsi cose completamente campate in aria riguardo ogni altro argomento, anche il più sensibile. Di sicuro ha i suoi pregi, ma così com'è non è ancora pronta per essere data in pasto alle masse, e se come giustamente hai detto, non si tratta che di un modello di linguaggio, che venga immediatamente ritirata e restituita alle masse quando sarà stata resa inutilizzabile per fare ciò che non riesce minimamente a fare.


    alepom 1 Risposta
  • Moderatore

    @daniwebmaster, non è stato fatto per rispondere a domande. Questa è la questione.
    Come ho scritto in un lungo post su Linkedin, secondo me OpenAI ha una grande responsabilità in questa grande incomprensione.
    Ma chi, l'ha compreso e ci lavora seriamente, invece di fare gli screenshottini nei social con le cagate più disparate, dovrebbe poter sviluppare soluzioni. Riporto qui sotto il mio post di Linkedin, che punta proprio alla riflessione.

    ===============================
    Iniziamo a fare un po' di chiarezza invece di cercare solo VPN? È l'occasione giusta.
    I LLM producono "allucinazioni". È un dato di fatto che deriva dalla loro natura.
    Da sempre ripeto che l'utilizzo a prompt aperto, come fosse un motore di ricerca, non ha alcun senso dal punto di vista di applicazioni professionali.

    Questi modelli sono straordinari se inseriti in flussi in cui siamo NOI (o altre applicazioni affidabili nell'estrazione del dato) a generare e controllare il contesto facendolo elaborare dall'algoritmo.
    Prima di tutto, dobbiamo capire questo principio: è FONDAMENTALE.

    OpenAI ha avuto un ruolo determinante in questa confusione, mettendo un modello di linguaggio a disposizione di chiunque in modalità chat. Alla quale è possibile chiedere TUTTO, senza adeguate spiegazioni.
    Chiaramente non possiamo pensare che le persone capiscano il funzionamento di questi sistemi. Lo stesso Garante non ha le idee chiare.

    Allora io dico: cara OpenAI, metti a disposizione SOLO il modello per elaborare dati e contesti. È quello che serve a livello professionale. Filtrate tutto: non ci servono dati sui fatti e le persone. I motori di ricerca li abbiamo!
    Inoltre diminuiranno gli screenshot con le query idiote nei social, della serie "guardate cosa ha detto ChatGPT.. hahaha".
    Grazie.