- Home
- Categorie
- La Community Connect.gt
- Intelligenza Artificiale
- Una pausa nello sviluppo di AI potenti?
-
Ah, hai ben ragione da vendere, sia chiaro!
Però l'aspetto delle informazioni personali è abbastanza cruciale... e un certo numero di informazioni personali come detto comunque sono embeddate nel modello sotto forma di relazioni tra token. È una forma di criptazione, se vogliamo.
E anche se le suddette informazioni personali sono disponibili pubblicamente... (ti basta essere dentro a Common Crawl e molto probabilmente sei pure dentro al modello di OpenAI) questo non le rende meno personali. E la legittimità del trattamento passa sempre dal consenso (han rotto talmente i cabasisi su sta cosa che dovrebbe oramai essere pacifica), a maggior ragione se si fa un trattamento su larga scala.
E coi LLM parliamo certamente di una cosa su larga, larghissima scala.
Ed ogni iterazione del modello, la scala è sempre più grande, sta già succedendo.
E il punto chiave è: qua da noi la legge impone alle aziende che trattano dati personali di tenere traccia e archiviare il consenso al trattamento dei dati personali.
Una cosa che un LLM tecnicamente non può fare, perché non è un database, è un predittore di token.
Da un punto di vista legale/privacy è un buco grosso come una casa.
-
...e la cosa diventa ancora più fumosa se l'LLM funziona principalmente come interfaccia.
Se ChatGPT ha solo il ruolo di captare la richiesta, trasformarla in comandi, fare una query su BIng e "tradurla" in una risposta... dove è la violazione dei dati personali ?
Su Bing ? O Su Google quando usa Bard ?
Siamo su una sottile linea di demarcazione... da vecchio elitista, sono favorevole all'accesso a ChatGPT solo dietro presentazione dello Spid
1 Risposta -
@quelgareth ha detto in Una pausa nello sviluppo di AI potenti?:
dove è la violazione dei dati personali ?
In realtà la risposta è pure facile: nel momento in cui hai preso i dati personali e li hai messi nel modello.
E la stessa cosa vale per il copyright.
La tecnologia è fenomenale, l'abbiamo visto tutti direi.
Ma è proprio perché è fenomenale che il far west non è tollerabile.
-
Nell'intervista di Flora al Garante, vengono gestite una serie di domande che tutti ci stiamo facendo.
Ve la linko.Anticipo che il vero problema sono i dati di training. E lì sarà la matassa da sbrogliare.
Altro tema: il provvedimento, o i successivi, riguarderanno tutti i servizi di OpenAI basati sugli stessi principi.
E probabilmente qui si aprirà un vaso di Pandora sugli algoritmi generativi.Ripeto nuovamente.. con @kal, ne parliamo da ottobre (dal pranzo dell'AST ) : meglio sbatterci il naso, discutere e fare chiarezza, sperando che ci sia buon senso nell'equilibrio tra sicurezza ed evoluzione tecnologica.
Ma io credo che le soluzioni ci siano, ad esempio con procedure di gestione dei dati correttive.Nel frattempo hanno bloccato ChatGPT in Italia.
-
Ma come??? Ieri pomeriggio ho chiesto a chatgpt se davvero l'avrebbero chiusa in Italia, e lei mi ha risposto di NO.. Ed ora invece non riesco più ad accedervi? Ma allora questa AI commette errori e spara minkiate come è più dell'essere umano? Caspita, è proprio vero che i robot stanno surclassando l'uomo
Comunque, con buona pace di chi la ama perché è comoda e gli fa fare quattrini, sinceramente, di motivi per segare l'AI ne vedrei a bizzeffe, e ci metterei la firma a rinunciare subito a tanta tecnologia che ci sta DISUMANIZZANDO, ma che purtroppo, nella maggior parte dei casi siamo costretti ad utilizzare per stare al passo con la concorrenza.
Intendo dire che in fondo il problema privacy è il minore dei mali. Comunque con una VPN chi proprio non riesce a farne a meno dovrebbe riuscire ad utilizzarla. Vedremo comunque, se che questo blocco si protrarrà per molto.
1 Risposta -
@daniwebmaster, vedi, il problema maggiore è proprio che non si sta capendo come ha senso usare questi modelli. Se fosse chiaro, non faresti quelle domande a un LLM.
1 Risposta -
@alepom Ciao Alepom.. Ma sai, in realtà ne sono felice, dato che credo che la mia forza stia proprio nel non avere tutto questo bisogno di capire come si usa, dato che gli articoli mi sgorgano dalle falangette come acqua fresca anche senza il supporto di chatgpt.. E poi se non l'ho capito io, vallo a spiegare ad un tredicenne o all'uomo della strada.. In ogni modo, per divertimento, gli ho chiesto anche di peggio ahhahha.. Dato che alla fine come ti ho detto, non la utilizzo, se non per ottenere l'elenco di qualcosa.. tipo i libri di un dato autore, che 2 volte su tre mi ha sbagliato dimenticando o storpiando dei titoli.. e lì se permetti, non sono stato io a sbagliare a chiedere, ma è la signorina AI che toppa regolarmente.. Davvero troppo spesso, e spesso in modo infame rigirandoti le cose come se fossero vere.. Tant'è che TUTTE LE RICERCHE consiglio di farle direttamente sul web, almeno finché ne rimarrà di scritto da esseri umani
1 Risposta -
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
non sono stato io a sbagliare a chiedere, ma è la signorina AI che toppa regolarmente
Questo è l'effetto di aver rilasciato ChatGPT al pubblico senza dare spiegazioni su cosa si sta utilizzando.
Non si tratta di un motore di ricerca, ma di un modello di linguaggio. Due sistemi completamente diversi.@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
TUTTE LE RICERCHE consiglio di farle direttamente sul web
Ci mancherebbe.. questo è proprio quello che deve fare un motore di ricerca.
Sono d'accordo con te.
1 Risposta -
@alepom ha detto in Una pausa nello sviluppo di AI potenti?:
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Questo è l'effetto di aver rilasciato ChatGPT al pubblico senza dare spiegazioni su cosa si sta utilizzando.
Non si tratta di un motore di ricerca, ma di un modello di linguaggio. Due sistemi completamente diversi.Il punto è che siamo di fronte ad uno strumento con dei grossi limiti, e quello più grande è che lui per primo non li riconosce e si presta a fare quello che non dovrebbe fare. A questo punto, mi spiace, ma non basta scrivere in un angolino "l'AI potrebbe dare risposte sbagliate"; perché è normale che se l'algoritmo si presta sempre e comunque a rispondere anche inventandosi le cose in modo così credibile da sembrare vere, ci troviamo di fronte ad un GROSSO RISCHIO che non può essere liquidato con un trafiletto nel disclaimer.
Questa tecnologia, così com'è è molto pericolosa, e lo ha riconosciuto persino Elon Musk definendola demoniaca. La prima cosa che salta all'occhio ad esempio, è come si rifiuti categoricamente di scrivere un raccontino erotico, ma che poi non si faccia problemi ad inventarsi cose completamente campate in aria riguardo ogni altro argomento, anche il più sensibile. Di sicuro ha i suoi pregi, ma così com'è non è ancora pronta per essere data in pasto alle masse, e se come giustamente hai detto, non si tratta che di un modello di linguaggio, che venga immediatamente ritirata e restituita alle masse quando sarà stata resa inutilizzabile per fare ciò che non riesce minimamente a fare.
1 Risposta -
@daniwebmaster, non è stato fatto per rispondere a domande. Questa è la questione.
Come ho scritto in un lungo post su Linkedin, secondo me OpenAI ha una grande responsabilità in questa grande incomprensione.
Ma chi, l'ha compreso e ci lavora seriamente, invece di fare gli screenshottini nei social con le cagate più disparate, dovrebbe poter sviluppare soluzioni. Riporto qui sotto il mio post di Linkedin, che punta proprio alla riflessione.===============================
Iniziamo a fare un po' di chiarezza invece di cercare solo VPN? È l'occasione giusta.
I LLM producono "allucinazioni". È un dato di fatto che deriva dalla loro natura.
Da sempre ripeto che l'utilizzo a prompt aperto, come fosse un motore di ricerca, non ha alcun senso dal punto di vista di applicazioni professionali.Questi modelli sono straordinari se inseriti in flussi in cui siamo NOI (o altre applicazioni affidabili nell'estrazione del dato) a generare e controllare il contesto facendolo elaborare dall'algoritmo.
Prima di tutto, dobbiamo capire questo principio: è FONDAMENTALE.OpenAI ha avuto un ruolo determinante in questa confusione, mettendo un modello di linguaggio a disposizione di chiunque in modalità chat. Alla quale è possibile chiedere TUTTO, senza adeguate spiegazioni.
Chiaramente non possiamo pensare che le persone capiscano il funzionamento di questi sistemi. Lo stesso Garante non ha le idee chiare.Allora io dico: cara OpenAI, metti a disposizione SOLO il modello per elaborare dati e contesti. È quello che serve a livello professionale. Filtrate tutto: non ci servono dati sui fatti e le persone. I motori di ricerca li abbiamo!
Inoltre diminuiranno gli screenshot con le query idiote nei social, della serie "guardate cosa ha detto ChatGPT.. hahaha".
Grazie.
-
ChatGPT funziona molto bene quando ha informazioni valide, e queste informazioni le dobbiamo fornire noi prima di ricevere una risposta che abbia senso, appunto non è un motore di ricerca, questo punto pensio sia il più importante della lista dos and don'ts.
Domanda mia, non capisco perché si chiama "intelligenza" quando noi non sappiamo definire cosa sia "intelligenza", ma questa è un'altra storia
ChatGPT è come il voto, meglio vietare il voto ad alcuni elementi che noi consideriamo non abbastanza (aggettivo che volete) o è meglio invece fare una divulgazione migliore e insegnare a questi individui a votare meglio e non di pancia?
1 Risposta -
@overclokk ha detto in Una pausa nello sviluppo di AI potenti?:
Domanda mia, non capisco perché si chiama "intelligenza" quando noi non sappiamo definire cosa sia "intelligenza", ma questa è un'altra storia
Nella fattispecie, l'"intelligenza" (tra 10 virgolette") in questione, è in grado di PENSARE risposte errate organizzandole come fossero esatte. Non è che ti dice: "NO questa cosa non la so" e morta lì.. Questo è il problema.. Il grave è che siamo di fronte ad un'"intelligenza demoniaca" che pur non sapendo le cose è capace di organizzare amenità ed indurti in errore..
Di questo non me ne sono accorto solo io ma è sotto gli occhi di tutti, ed è UN BUG al quale si deve porre rimedio impedendogli di NON RIPETERSI, e non istruendo le persone sul fatto che gli è stato messo un demone tra le dita.
Esempio pratico: L'altro giorno un mio amico stava per pubblicare un articolo riguardante Gustavo Adolfo Rol, del quale l'AI non sapeva assolutamente nulla ed ha imbastito 1000 parole di castronerie. Informazioni che erano un miscuglio di altri autori o personaggi che nulla avevano a che vedere con il Rol in questione.
Questo amico è un copy che oggi scrive di patate, domani di microprocessori, e dopodomani di Gesù Cristo, quindi se non gli avessi detto io che stava pubblicando 1000 parole di M lo avrebbe fatto.
OK direte voi, ma l'AI non serve a questo, non si usa così e bla bla bla... Ma queste sono solo parole, la realtà è un'altra, ed è che questa "intelligenza" fa quello che gli pare e quello che NON DEVE, ma lo fa talmente "bene" che se non sarà limitata nelle sue funzioni niente e nessuno potrà evitare un copioso e quotidiano riversarsi di cacca sul web.
2 Risposte -
Io personalmente credo che non ci sia nulla di male o neanche ignoranza sul tema da parte del garante. Il garante ha capito benissimo secondo me come funziona.
Anche per fare ricerca scientifica a beneficio del mondo e senza scopo di lucro si deve avere il consenso al trattamento dei dettagli più minuti...non capisco perché un'azienda americana possa sbattersene per lo sviluppo di una roba proprietaria su cui lucra.
Mi sa che se iniziamo a ragionare così è meglio che andiamo tutti a zappare la terra che stiamo più sereni.
Il problema secondo me non è come funziona uno strumento tecnico il punto della questione. Il punto è l'input e l'output.
-
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Nella fattispecie, l'"intelligenza" (tra 10 virgolette") in questione, è in grado di PENSARE risposte errate organizzandole come fossero esatte. Non è che ti dice: "NO questa cosa non la so" e morta lì.. Questo è il problema..
Beh, questo lo facciamo anche noi umani, una buona fetta delle informazioni che si conoscono sono fuffa e le abbiamo create noi, sia consapevolmente che inconsapevolmente, una macchina è solo più veloce.
Il fatto preoccupante è che il tuo amico articolista scrive di qualcosa che non conosce, questo è un vero problema.
Poi, si, citare le fonti dovrebbe essere una pratica comune, anche per le macchine.
1 Risposta -
@overclokk ha detto in Una pausa nello sviluppo di AI potenti?:
Beh, questo lo facciamo anche noi umani, una buona fetta delle informazioni che si conoscono sono fuffa e le abbiamo create noi, sia consapevolmente che inconsapevolmente, una macchina è solo più veloce.
Molto più veloce, questo è il problema.. Ed anche in modo completamente nuovo, per come le castronerie vengono organizzate ed appaiono credibili..
Comunque tu ed anche Juanin, in linea di principio teoricamente parlando avete perfettamente ragione. Il fatto è che non si tratta di uno strumento messo in mano a dei professionisti, ma a cani e porci.. Senza contare che anche tra i professionisti c'è gente senza scrupoli, e tanto perché si sappia, esistono già un bel po' di webmaster che hanno network di siti creati con l'intelligenza artificiale dove pubblicano articoli a iosa dopo avergli dato (forse) una riletta di 5 minuti.
Vi lascio immaginare a questo ritmo, quanto ci vorrà per ritrovarsi un web che sarà in grandissima parte nient'altro che spazzatura, pieno di informazioni errate, o per ben che vada fatto di articoli senza SPESSORE UMANO.
Non sarebbe meglio avere un po' meno di questa tecnologia, e lavorare tutti più lentamente ma lavorare meglio? Invece di cercare di montarci in testa l'un l'altro a botte di software che ci stanno deumanizzando? Credete davvero che triplicare la produttività con l'AI corrisponderà ad un altrettanto significativo aumento della qualità dei contenuti? Io non lo credo affatto.
1 Risposta -
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Il fatto è che non si tratta di uno strumento messo in mano a dei professionisti, ma a cani e porci..
Più persone imparano ad usare questo strumento meglio è, se poi queste persone "non hanno consapevolezza" nello strumento sarà chi avrà maggiore consapevolezza (cerco di non usare altri termini che potrebbero essere fraintesi) a portare allo stesso livello queste persone, come? Divulgazione. Poi ci sarà chi non avrà voglia di imparare? Si.
Possiamo dire la stessa cosa del voto, meglio che possano votare tutti o solo una ristretta
élite di persone?@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Vi lascio immaginare a questo ritmo, quanto ci vorrà per ritrovarsi un web che sarà in grandissima parte nient'altro che spazzatura, pieno di informazioni errate, o per ben che vada fatto di articoli senza SPESSORE UMANO.
Già esiste, non cito nomi ma già sappiamo dove questo succede, (a occhio ma non ho dati per poter confermare diciamo il 90% dell'informazione)
Poi si dovrebbe definire cosa si intende per "SPESSORE UMANO"
@daniwebmaster ha detto in Una pausa nello sviluppo di AI potenti?:
Non sarebbe meglio avere un po' meno di questa tecnologia, e lavorare tutti più lentamente ma lavorare meglio? Invece di cercare di montarci in testa l'un l'altro a botte di software che ci stanno deumanizzando? Credete davvero che triplicare la produttività con l'AI corrisponderà ad un altrettanto significativo aumento della qualità dei contenuti? Io non lo credo affatto.
Mi sembra molto simile al discorso era meglio quando si stava peggio, le macchine di una volta non si rompevano ecc.
Questa tecnologia è qui per rimanere, nessuno obbliga nessuno ad utilizzarla (stesso discorso per la farina di grillo, carne coltivata e potrei andare avanti...), si potrà sempre fare alla vecchia maniera, non è che la vecchia maniera non funzionerà più.
-
Concordo sul fatto che la tecnologia c'è per restare, è qualcosa di veramente rivoluzionario, non ci sono dubbi su questo. Occorre:
- farsene una ragione
- studiare per capire come potrà essere applicata
Bonus: provare fin d'oggi ad applicarla nel proprio ambito.
Detto questo, per tornare a riferirmi al topic principale: è INDISPENSABILE che la tecnologia segua le regole che ci siamo dati come società. Non è accettabile uno sviluppo in barba a privacy e copyright.
Regolare gli algoritmi generativi è il primo passo indispensabile per regolare qualunque sviluppo futuro delle intelligenze artificiali. Non c'è spazio di negoziazione su questo.
Senza paure o allarmismi: è semplicemente la cosa giusta da fare.
1 Risposta -
@kal, assolutamente.
Aggiungo che su tutto questo sarà fondamentale agire insieme, come umanità. Sarà questa la grande prova per il prossimo futuro.Quella che stiamo osservando oggi (tema GPT & privacy) è solo un piccolissimo assaggio.
Leggete il report di Stanford sull'AI che ha condiviso @juanin, e vi accorgerete subito dei motivi.
-
Per me sono due i punti fondamentali:
- come fai il training
- che interfaccia crei
Sulla prima devi assicurarti che ciò su cui fai il training tu abbia il diritto di usare le informazioni per quello. E questo riguarda dati personali, copyright e tante altre cose. Tanti siti stanno iniziando a indicare che i loro contenuti non sono usabili per il training.
Sulla seconda, siccome non sei più in fase di ricerca, ma di prodotto, devi rispettare le regole dei prodotti di cui fai parte. Tra le altre cose tu non puoi fare pubblicità di un'auto a benzina e dire che è elettrica. Non importa cosa scrivi in piccolo, se tu sei in una categoria, ci sono delle regole per quella categoria.
Per me la trasparenza e l'accoontability sono fondamentali.
Poi possiamo dire che alcune leggi attuali vanno modificate perché l'AI Generativa o il NLP trasformati in prodotti di massa richiedono altre cose.
Ma intanto adeguiamoci alle basi di oggi.
-
Sul fatto che l'AI sia una tecnologia che è qui per rimanere, e che bisogna farsene una ragione. Purtroppo concordo, e mi toccherà farmela come me la faccio ogni volta che l'homo sapiens sforna qualche nuova "genialata".. Tipo la bomba atomica o quella nucleare, ma dove perlomeno serve qualcuno che prema il fatidico bottone rosso.. Ecco, a quello tra un paio d'anni potrebbe pensarci l'AI Ma se oltre a rassegnarmi alla scelleratezza dell'uomo moderno, pretendete anche che mi piaccia e che ne sia felice, continuo a darvi un bel NO secco e convinto su tutti i fronti..
E del fatto che ad esempio, già su bing per ottenere tutte le info che si desiderano basti chattare con l'AI, dunque senza dover visitare i vostri siti e visualizzare i vostri spot pubblicitari, cosa ne pensate? Vi sembra una cosa entusiasmante anche questa? Non è che alla fine invece di guadagnarci vi toccherà sgobbare di più e guadagnare di meno?
Concludendo, per me dell'AI se ne poteva fare benissimo a meno su tutti i fronti, dato che di tutto ha bisogno questo mondo, fuorché di nuove trovate tecnologiche che lo buttino ancora più a fondo di quello che GIA' E', proprio a causa della nostra "strabiliante tecnologia". Tanto per dirne una, solo con le tonnellate d'acqua che serviranno per raffreddare i server delle varie AI ci potremmo dissetare tutto il terzo mondo.. Ripeto, per dirne.. UNA SOLTANTO.
Rinsaviamo ragazzi.. Rinsaviamo