- Home
- Categorie
- La Community Connect.gt
- Intelligenza Artificiale
- Una pausa nello sviluppo di AI potenti?
-
@juanin, come sempre, più chiarezza si farà e meglio sarà per tutti.
Tuttavia, il provvedimento è più centrato sul trattamento dei dati degli utenti che sul funzionamento dell'AI.Apro e chiudo una parentesi: non capisco perché fa riferimento solo a ChatGPT, e non a tutta l'infrastruttura OpenAI (o meglio, temo di sapere il motivo, ma provo a non esternarlo fino al P.S.).
L'unico riferimento al funzionamento del sistema è dove dice che si rileva "l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT".
Anche se dentro ai termini di utilizzo e alla privacy policy ci sono diverse informazioni in merito. Anche come evitare che i dati vengano utilizzati per l'addestramento.
Qui fa un sunto ad hoc: https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance
Ma non sono un esperto di normative, quindi potrebbero essere insufficienti, anzi, lo sono di certo se è stato fatto il provvedimento. Ripeto, più chiarezza si farà, e meglio è per usare tutto più serenamente. Però credo che sia facilmente risolvibile e spiegabile da OpenAI.
P.S.
Quando dice: "Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto", diventa immediatamente chiaro che non si ha idea di cosa si stia utilizzando.
1 Risposta -
@alepom ha detto in Una pausa nello sviluppo di AI potenti?:
Comunque, ripeto, più chiarezza si farà, e meglio è per usare tutto più serenamente.
Questa cosa è fondamentale.
P.S.
Quando dice: "Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto", diventa immediatamente chiaro che non si ha idea di cosa si stia utilizzando.Tu dici così perché sai come funziona un LLM. Ma se la guardi dal punto di vista legale, non è affatto strano.
È la descrizione di un dato di fatto.
ChatGPT dei dati personali te li fornisce... e l'entità "persona" è comunque collegata ai suoi dati nel LLM (seppure in forma astratta di token)
Anche se credo che sta cosa l'abbiano patchata di recente perché ora sempre più spesso risponde "non posso e blah blah".
1 Risposta -
@kal ha detto in Una pausa nello sviluppo di AI potenti?:
Tu dici così perché sai come funziona un LLM. Ma se la guardi dal punto di vista legale, non è affatto strano.
È la descrizione di un dato di fatto.Questo è davvero un punto cruciale per l'utilizzo di queste tecnologie.
Capisco benissimo quello che vuoi dire, però capisci anche che, per gli utenti, siamo nel mezzo di un turbine di confusione di una portata degna di nota.Non prendermi per un difensore di OpenAI, eh!? Lo dissi diverso tempo fa che non siamo pronti per sistemi come questi rilasciati in questo modo, senza preparazione. Ovvero senza far entrare bene nelle persone le logiche da tenere in considerazione.
Però nelle istruzioni (Termini di utilizzo), viene specificato in modo abbastanza chiaro che non si tratta di un motore di ricerca e che le informazioni vanno verificate (e che chi usa le informazioni ne diventa responsabile): "Given the probabilistic nature of machine learning, use of our Services may in some situations result in incorrect Output that does not accurately reflect real people, places, or facts. You should evaluate the accuracy of any Output as appropriate for your use case, including by using human review of the Output.".
È anche vero che un'interfaccia non dovrebbe aver bisogno di istruzioni. Invece, in questo caso, la natura dell'interfaccia e dell'interazione (chat) deviano dalla natura del modello. Perché ti induce a chiedere e a fidarti, mentre nelle istruzioni mette in guardia sull'accuratezza delle risposte.
Si tratta di una tematica interessante, sulla quale, secondo me, ci sarà molto lavoro da fare.
-
Ah, hai ben ragione da vendere, sia chiaro!
Però l'aspetto delle informazioni personali è abbastanza cruciale... e un certo numero di informazioni personali come detto comunque sono embeddate nel modello sotto forma di relazioni tra token. È una forma di criptazione, se vogliamo.
E anche se le suddette informazioni personali sono disponibili pubblicamente... (ti basta essere dentro a Common Crawl e molto probabilmente sei pure dentro al modello di OpenAI) questo non le rende meno personali. E la legittimità del trattamento passa sempre dal consenso (han rotto talmente i cabasisi su sta cosa che dovrebbe oramai essere pacifica), a maggior ragione se si fa un trattamento su larga scala.
E coi LLM parliamo certamente di una cosa su larga, larghissima scala.
Ed ogni iterazione del modello, la scala è sempre più grande, sta già succedendo.
E il punto chiave è: qua da noi la legge impone alle aziende che trattano dati personali di tenere traccia e archiviare il consenso al trattamento dei dati personali.
Una cosa che un LLM tecnicamente non può fare, perché non è un database, è un predittore di token.
Da un punto di vista legale/privacy è un buco grosso come una casa.
-
...e la cosa diventa ancora più fumosa se l'LLM funziona principalmente come interfaccia.
Se ChatGPT ha solo il ruolo di captare la richiesta, trasformarla in comandi, fare una query su BIng e "tradurla" in una risposta... dove è la violazione dei dati personali ?
Su Bing ? O Su Google quando usa Bard ?
Siamo su una sottile linea di demarcazione... da vecchio elitista, sono favorevole all'accesso a ChatGPT solo dietro presentazione dello Spid
1 Risposta -
@quelgareth ha detto in Una pausa nello sviluppo di AI potenti?:
dove è la violazione dei dati personali ?
In realtà la risposta è pure facile: nel momento in cui hai preso i dati personali e li hai messi nel modello.
E la stessa cosa vale per il copyright.
La tecnologia è fenomenale, l'abbiamo visto tutti direi.
Ma è proprio perché è fenomenale che il far west non è tollerabile.
-
Nell'intervista di Flora al Garante, vengono gestite una serie di domande che tutti ci stiamo facendo.
Ve la linko.Anticipo che il vero problema sono i dati di training. E lì sarà la matassa da sbrogliare.
Altro tema: il provvedimento, o i successivi, riguarderanno tutti i servizi di OpenAI basati sugli stessi principi.
E probabilmente qui si aprirà un vaso di Pandora sugli algoritmi generativi.Ripeto nuovamente.. con @kal, ne parliamo da ottobre (dal pranzo dell'AST ) : meglio sbatterci il naso, discutere e fare chiarezza, sperando che ci sia buon senso nell'equilibrio tra sicurezza ed evoluzione tecnologica.
Ma io credo che le soluzioni ci siano, ad esempio con procedure di gestione dei dati correttive.Nel frattempo hanno bloccato ChatGPT in Italia.
-
Ma come??? Ieri pomeriggio ho chiesto a chatgpt se davvero l'avrebbero chiusa in Italia, e lei mi ha risposto di NO.. Ed ora invece non riesco più ad accedervi? Ma allora questa AI commette errori e spara minkiate come è più dell'essere umano? Caspita, è proprio vero che i robot stanno surclassando l'uomo
Comunque, con buona pace di chi la ama perché è comoda e gli fa fare quattrini, sinceramente, di motivi per segare l'AI ne vedrei a bizzeffe, e ci metterei la firma a rinunciare subito a tanta tecnologia che ci sta DISUMANIZZANDO, ma che purtroppo, nella maggior parte dei casi siamo costretti ad utilizzare per stare al passo con la concorrenza.
Intendo dire che in fondo il problema privacy è il minore dei mali. Comunque con una VPN chi proprio non riesce a farne a meno dovrebbe riuscire ad utilizzarla. Vedremo comunque, se che questo blocco si protrarrà per molto.
1 Risposta -
@daniwebmaster, vedi, il problema maggiore è proprio che non si sta capendo come ha senso usare questi modelli. Se fosse chiaro, non faresti quelle domande a un LLM.
1 Risposta -
@alepom Ciao Alepom.. Ma sai, in realtà ne sono felice, dato che credo che la mia forza stia proprio nel non avere tutto questo bisogno di capire come si usa, dato che gli articoli mi sgorgano dalle falangette come acqua fresca anche senza il supporto di chatgpt.. E poi se non l'ho capito io, vallo a spiegare ad un tredicenne o all'uomo della strada.. In ogni modo, per divertimento, gli ho chiesto anche di peggio ahhahha.. Dato che alla fine come ti ho detto, non la utilizzo, se non per ottenere l'elenco di qualcosa.. tipo i libri di un dato autore, che 2 volte su tre mi ha sbagliato dimenticando o storpiando dei titoli.. e lì se permetti, non sono stato io a sbagliare a chiedere, ma è la signorina AI che toppa regolarmente.. Davvero troppo spesso, e spesso in modo infame rigirandoti le cose come se fossero vere.. Tant'è che TUTTE LE RICERCHE consiglio di farle direttamente sul web, almeno finché ne rimarrà di scritto da esseri umani
1 Risposta -
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
non sono stato io a sbagliare a chiedere, ma è la signorina AI che toppa regolarmente
Questo è l'effetto di aver rilasciato ChatGPT al pubblico senza dare spiegazioni su cosa si sta utilizzando.
Non si tratta di un motore di ricerca, ma di un modello di linguaggio. Due sistemi completamente diversi.@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
TUTTE LE RICERCHE consiglio di farle direttamente sul web
Ci mancherebbe.. questo è proprio quello che deve fare un motore di ricerca.
Sono d'accordo con te.
1 Risposta -
@alepom ha detto in Una pausa nello sviluppo di AI potenti?:
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Questo è l'effetto di aver rilasciato ChatGPT al pubblico senza dare spiegazioni su cosa si sta utilizzando.
Non si tratta di un motore di ricerca, ma di un modello di linguaggio. Due sistemi completamente diversi.Il punto è che siamo di fronte ad uno strumento con dei grossi limiti, e quello più grande è che lui per primo non li riconosce e si presta a fare quello che non dovrebbe fare. A questo punto, mi spiace, ma non basta scrivere in un angolino "l'AI potrebbe dare risposte sbagliate"; perché è normale che se l'algoritmo si presta sempre e comunque a rispondere anche inventandosi le cose in modo così credibile da sembrare vere, ci troviamo di fronte ad un GROSSO RISCHIO che non può essere liquidato con un trafiletto nel disclaimer.
Questa tecnologia, così com'è è molto pericolosa, e lo ha riconosciuto persino Elon Musk definendola demoniaca. La prima cosa che salta all'occhio ad esempio, è come si rifiuti categoricamente di scrivere un raccontino erotico, ma che poi non si faccia problemi ad inventarsi cose completamente campate in aria riguardo ogni altro argomento, anche il più sensibile. Di sicuro ha i suoi pregi, ma così com'è non è ancora pronta per essere data in pasto alle masse, e se come giustamente hai detto, non si tratta che di un modello di linguaggio, che venga immediatamente ritirata e restituita alle masse quando sarà stata resa inutilizzabile per fare ciò che non riesce minimamente a fare.
1 Risposta -
@daniwebmaster, non è stato fatto per rispondere a domande. Questa è la questione.
Come ho scritto in un lungo post su Linkedin, secondo me OpenAI ha una grande responsabilità in questa grande incomprensione.
Ma chi, l'ha compreso e ci lavora seriamente, invece di fare gli screenshottini nei social con le cagate più disparate, dovrebbe poter sviluppare soluzioni. Riporto qui sotto il mio post di Linkedin, che punta proprio alla riflessione.===============================
Iniziamo a fare un po' di chiarezza invece di cercare solo VPN? È l'occasione giusta.
I LLM producono "allucinazioni". È un dato di fatto che deriva dalla loro natura.
Da sempre ripeto che l'utilizzo a prompt aperto, come fosse un motore di ricerca, non ha alcun senso dal punto di vista di applicazioni professionali.Questi modelli sono straordinari se inseriti in flussi in cui siamo NOI (o altre applicazioni affidabili nell'estrazione del dato) a generare e controllare il contesto facendolo elaborare dall'algoritmo.
Prima di tutto, dobbiamo capire questo principio: è FONDAMENTALE.OpenAI ha avuto un ruolo determinante in questa confusione, mettendo un modello di linguaggio a disposizione di chiunque in modalità chat. Alla quale è possibile chiedere TUTTO, senza adeguate spiegazioni.
Chiaramente non possiamo pensare che le persone capiscano il funzionamento di questi sistemi. Lo stesso Garante non ha le idee chiare.Allora io dico: cara OpenAI, metti a disposizione SOLO il modello per elaborare dati e contesti. È quello che serve a livello professionale. Filtrate tutto: non ci servono dati sui fatti e le persone. I motori di ricerca li abbiamo!
Inoltre diminuiranno gli screenshot con le query idiote nei social, della serie "guardate cosa ha detto ChatGPT.. hahaha".
Grazie.
-
ChatGPT funziona molto bene quando ha informazioni valide, e queste informazioni le dobbiamo fornire noi prima di ricevere una risposta che abbia senso, appunto non è un motore di ricerca, questo punto pensio sia il più importante della lista dos and don'ts.
Domanda mia, non capisco perché si chiama "intelligenza" quando noi non sappiamo definire cosa sia "intelligenza", ma questa è un'altra storia
ChatGPT è come il voto, meglio vietare il voto ad alcuni elementi che noi consideriamo non abbastanza (aggettivo che volete) o è meglio invece fare una divulgazione migliore e insegnare a questi individui a votare meglio e non di pancia?
1 Risposta -
@overclokk ha detto in Una pausa nello sviluppo di AI potenti?:
Domanda mia, non capisco perché si chiama "intelligenza" quando noi non sappiamo definire cosa sia "intelligenza", ma questa è un'altra storia
Nella fattispecie, l'"intelligenza" (tra 10 virgolette") in questione, è in grado di PENSARE risposte errate organizzandole come fossero esatte. Non è che ti dice: "NO questa cosa non la so" e morta lì.. Questo è il problema.. Il grave è che siamo di fronte ad un'"intelligenza demoniaca" che pur non sapendo le cose è capace di organizzare amenità ed indurti in errore..
Di questo non me ne sono accorto solo io ma è sotto gli occhi di tutti, ed è UN BUG al quale si deve porre rimedio impedendogli di NON RIPETERSI, e non istruendo le persone sul fatto che gli è stato messo un demone tra le dita.
Esempio pratico: L'altro giorno un mio amico stava per pubblicare un articolo riguardante Gustavo Adolfo Rol, del quale l'AI non sapeva assolutamente nulla ed ha imbastito 1000 parole di castronerie. Informazioni che erano un miscuglio di altri autori o personaggi che nulla avevano a che vedere con il Rol in questione.
Questo amico è un copy che oggi scrive di patate, domani di microprocessori, e dopodomani di Gesù Cristo, quindi se non gli avessi detto io che stava pubblicando 1000 parole di M lo avrebbe fatto.
OK direte voi, ma l'AI non serve a questo, non si usa così e bla bla bla... Ma queste sono solo parole, la realtà è un'altra, ed è che questa "intelligenza" fa quello che gli pare e quello che NON DEVE, ma lo fa talmente "bene" che se non sarà limitata nelle sue funzioni niente e nessuno potrà evitare un copioso e quotidiano riversarsi di cacca sul web.
2 Risposte -
Io personalmente credo che non ci sia nulla di male o neanche ignoranza sul tema da parte del garante. Il garante ha capito benissimo secondo me come funziona.
Anche per fare ricerca scientifica a beneficio del mondo e senza scopo di lucro si deve avere il consenso al trattamento dei dettagli più minuti...non capisco perché un'azienda americana possa sbattersene per lo sviluppo di una roba proprietaria su cui lucra.
Mi sa che se iniziamo a ragionare così è meglio che andiamo tutti a zappare la terra che stiamo più sereni.
Il problema secondo me non è come funziona uno strumento tecnico il punto della questione. Il punto è l'input e l'output.
-
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Nella fattispecie, l'"intelligenza" (tra 10 virgolette") in questione, è in grado di PENSARE risposte errate organizzandole come fossero esatte. Non è che ti dice: "NO questa cosa non la so" e morta lì.. Questo è il problema..
Beh, questo lo facciamo anche noi umani, una buona fetta delle informazioni che si conoscono sono fuffa e le abbiamo create noi, sia consapevolmente che inconsapevolmente, una macchina è solo più veloce.
Il fatto preoccupante è che il tuo amico articolista scrive di qualcosa che non conosce, questo è un vero problema.
Poi, si, citare le fonti dovrebbe essere una pratica comune, anche per le macchine.
1 Risposta -
@overclokk ha detto in Una pausa nello sviluppo di AI potenti?:
Beh, questo lo facciamo anche noi umani, una buona fetta delle informazioni che si conoscono sono fuffa e le abbiamo create noi, sia consapevolmente che inconsapevolmente, una macchina è solo più veloce.
Molto più veloce, questo è il problema.. Ed anche in modo completamente nuovo, per come le castronerie vengono organizzate ed appaiono credibili..
Comunque tu ed anche Juanin, in linea di principio teoricamente parlando avete perfettamente ragione. Il fatto è che non si tratta di uno strumento messo in mano a dei professionisti, ma a cani e porci.. Senza contare che anche tra i professionisti c'è gente senza scrupoli, e tanto perché si sappia, esistono già un bel po' di webmaster che hanno network di siti creati con l'intelligenza artificiale dove pubblicano articoli a iosa dopo avergli dato (forse) una riletta di 5 minuti.
Vi lascio immaginare a questo ritmo, quanto ci vorrà per ritrovarsi un web che sarà in grandissima parte nient'altro che spazzatura, pieno di informazioni errate, o per ben che vada fatto di articoli senza SPESSORE UMANO.
Non sarebbe meglio avere un po' meno di questa tecnologia, e lavorare tutti più lentamente ma lavorare meglio? Invece di cercare di montarci in testa l'un l'altro a botte di software che ci stanno deumanizzando? Credete davvero che triplicare la produttività con l'AI corrisponderà ad un altrettanto significativo aumento della qualità dei contenuti? Io non lo credo affatto.
1 Risposta -
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Il fatto è che non si tratta di uno strumento messo in mano a dei professionisti, ma a cani e porci..
Più persone imparano ad usare questo strumento meglio è, se poi queste persone "non hanno consapevolezza" nello strumento sarà chi avrà maggiore consapevolezza (cerco di non usare altri termini che potrebbero essere fraintesi) a portare allo stesso livello queste persone, come? Divulgazione. Poi ci sarà chi non avrà voglia di imparare? Si.
Possiamo dire la stessa cosa del voto, meglio che possano votare tutti o solo una ristretta
élite di persone?@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Vi lascio immaginare a questo ritmo, quanto ci vorrà per ritrovarsi un web che sarà in grandissima parte nient'altro che spazzatura, pieno di informazioni errate, o per ben che vada fatto di articoli senza SPESSORE UMANO.
Già esiste, non cito nomi ma già sappiamo dove questo succede, (a occhio ma non ho dati per poter confermare diciamo il 90% dell'informazione)
Poi si dovrebbe definire cosa si intende per "SPESSORE UMANO"
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Non sarebbe meglio avere un po' meno di questa tecnologia, e lavorare tutti più lentamente ma lavorare meglio? Invece di cercare di montarci in testa l'un l'altro a botte di software che ci stanno deumanizzando? Credete davvero che triplicare la produttività con l'AI corrisponderà ad un altrettanto significativo aumento della qualità dei contenuti? Io non lo credo affatto.
Mi sembra molto simile al discorso era meglio quando si stava peggio, le macchine di una volta non si rompevano ecc.
Questa tecnologia è qui per rimanere, nessuno obbliga nessuno ad utilizzarla (stesso discorso per la farina di grillo, carne coltivata e potrei andare avanti...), si potrà sempre fare alla vecchia maniera, non è che la vecchia maniera non funzionerà più.
-
Concordo sul fatto che la tecnologia c'è per restare, è qualcosa di veramente rivoluzionario, non ci sono dubbi su questo. Occorre:
- farsene una ragione
- studiare per capire come potrà essere applicata
Bonus: provare fin d'oggi ad applicarla nel proprio ambito.
Detto questo, per tornare a riferirmi al topic principale: è INDISPENSABILE che la tecnologia segua le regole che ci siamo dati come società. Non è accettabile uno sviluppo in barba a privacy e copyright.
Regolare gli algoritmi generativi è il primo passo indispensabile per regolare qualunque sviluppo futuro delle intelligenze artificiali. Non c'è spazio di negoziazione su questo.
Senza paure o allarmismi: è semplicemente la cosa giusta da fare.
1 Risposta