@kejsirio tanta roba l'idea, complimenti per l'iniziativa!
Beh che dire, oggi se ne parla così tanto, fra regolamentazione, etica vs innovazione (vedi in generale il disallineamento, diversa visione delle cose fra Europa e USA). A parte i soliti temi generali più scontati (rispetto nel trattamento dei dati, trasparenza nelle informazioni, ecc), ciò che ritengo interessante da valutare è questo:
- equità orizzontale vs verticale (spesso anche indicato come uguaglianza vs equità
con equità orizzontale intendo "trattare tutti allo stesso modo, in termini assoluti", mentre con equità verticale intendo "trattare ognuno con un metro relativo a seconda del contesto": ad esempio una regolamentazione rigida è già stato evidenziato che andrebbe a colpire le PMI, a vantaggio dei soliti big; se Google, OpenAI ecc devono dotarsi di un team di legali e un team di analisti per regolamentare il loro prodotto, lo possono fare, mentre per una piccola azienda, startup, generalmente sarebbe improponibile. Quindi occorre un approccio basato sull'impatto che il prodotto/servizio può avere (per tipologia di applicazione, copertura stimata di utenza, <<regole in base alla potenza del modello IA>>) e in base a quello fissare dei livelli di regolamentazione, con requisiti e metodologie differenti
- impatto su temi controversi: leggevo di recente nel libro Ethics of Artificial Intelligence (Springer) alcuni spunti davvero interessanti, l'IA generativa anche come strumento di supporto psicologico ben oltre ciò che intendiamo etico e anche legale, ambito CSAM, varie applicazioni inerenti alla sessualità, violenza ecc; qui il tema è piuttosto complesso, da un lato bandire questi usi significa "facciamo finta che il problema non esista", lavandosene le mani di fatto, dall'altro occorre valutare e pesare attentamente pro e contro di una scelta che potrebbe (dico potrebbe) significare: ciò che ti è concesso fare col software (o anche misto software/hardware, in un futuro non troppo prossimo, probabilmente) è un modo per soddisfare un impulso che nella nostra attuale società non sarebbe certamente ben visto e di fatto consentito; se un comportamento "inaccettabile" è consentito nel virtuale, potrebbe essere una soluzione preventiva perché tale comportamento non abbia ripercussioni nel mondo reale! Ovviamente riguardo a questi temi è bene che ci sia un'attenta analisi e valutazione di psicologi, sociologi, allo stato attuale temo però che per la società sia più semplice lavarsene le mani. Poi anche più in generale, sia per quanto detto sia per un discorso di "libera espressione", è chiaro che molte persone, sia utenti che sviluppatori, vorrebbero "dei chatbot senza censura": a livello sociale, che impatto avrebbe la cosa? "Chatbot non censurati" totalmente liberi nelle risposte ma anche nelle modalità di utilizzo (trattamento dati ecc), oppure richiedere comunque il rispetto di una regolamentazione di base. Personalmente credo che sia più funzionale (utilità collettiva) trovare un compromesso, dato che con la diffusione di una tecnologia non eliminerai mai le alternative, vedi la diffusione online di materiale protetto da copyright, bloccato un contenuto, bloccato un sito, sta di fatto che il mondo è talmente decentralizzato che ad imporre limiti rigidi non si potrà mai risolvere definitivamente un problema