L’intelligenza artificiale, il suo impatto sulla vita dell’uomo e sull’esercizio del potere. Quali regole fissare per regolamentare una tecnologia che si sta sviluppando così velocemente? Chi, come e perché decide i parametri dell’algoritmo che ci consiglia un libro da acquistare o la strada più veloce sul navigatore satellitare? Tutti abbiamo ammirato le potenzialità di ChatGPT, le immagini incredibili del Papa, di Trump e di Putin prodotte con Midjourney, ma ora la scommessa dell’Italia, dell’Europa e di tutte le democrazie è quella di trovare il giusto equilibrio tra ricerca, sviluppo e prevenzione di abusi e pericoli per la sicurezza dei cittadini e delle istituzioni. La sfida è sviluppare una tecnologia antropocentrica e non antropomorfica, ovvero una tecnologia che tenga l’uomo al centro e lo supporti nelle sue attività, ma che non lo sostituisca. Di questo si è discusso alla Camera dei Deputati durante la prima seduta del ciclo di incontri del Comitato di Vigilanza sull’attività di Documentazione che dovrà mettere insieme tutti i tasselli di una nuova rivoluzione destinata a cambiare stili di vita, cicli produttivi, percorsi decisionali.
Nella Biblioteca del Presidente di Montecitorio, si sono svolte le audizioni del professor Paolo Benanti, docente della Pontificia Università Gregoriana, e della professoressa Rita Cucchiara, docente dell’Università di Modena e Reggio Emilia. L’indagine del Comitato, presieduto dalla vicepresidente della Camera, Anna Ascani, ha l’obiettivo di conoscere l’avanzamento dell’intelligenza artificiale e degli algoritmi e di studiare la loro possibile applicazione all’interno della documentazione parlamentare, a supporto dell’attività del Parlamento. A seguire i lavori, l’avvocato Ernesto Belisario, esperto di diritto delle tecnologie e innovazione nella pubblica amministrazione.
Etica e tecnica, le due facce della medaglia
Molto illuminante la relazione del professor Paolo Benanti, che sarà ospite del Wired Next Fest di Rovereto in programma il 6 e 7 maggio (ingresso gratuito su registrazione). “L’etica – spiega il teologo francescano – ha un padre che possiamo vedere in Socrate e lui era solito dialogare ponendo domande. La prima domanda che dobbiamo porci è di cosa parliamo quando affrontiamo questo tema: con la rivoluzione industriale abbiamo sostituito parte della capacità umana di produzione con nuove forme di energia, prima chimica, poi l vapore e a seguire elettrica. Una seconda forma di rivoluzione industriale c’è stata quando abbiamo creato la catena di montaggio. A partire dagli anni ’70 la macchina si è evoluta: con l’elettronica abbiamo avuto la possibilità di programmare il lavoro delle stesse macchine: il programmatore decide quali operazioni dovrà svolgere nelle varie condizioni. A un certo punto, con l’aumento della capacità di calcolo e del flusso di dati, qualcosa è cambiato: la macchina può gestirsi in maniera dinamica senza che serva più l’uomo a impartire comandi e senza trovarsi un ambiente pensato solo per la macchina, perché è lei stessa ad adattarsi all’ambiente circostante, reagendo e seguire obiettivi e finalità decise dall’uomo. Questo insieme di macchine che si adattano per seguire delle finalità rappresenta il variegato mondo dell’intelligenza artificiale”.
Una nuova rivoluzione che non può prescindere da una supervisione e da un controllo da parte dell’uomo e delle sue istituzioni pubbliche. “Oggi il legislatore non è ancora in grado di definire tutto ciò che è intelligenza artificiale – spiega ancora Benanti – e questo apre questioni sia di natura giuridica che etica. Alla base di tutto c’è un albero delle decisioni, ovvero l’algoritmo che determina le possibili scelte che la macchina può compiere. Oggi quella catena è spesso inaccessibile all’utente finale, che non è in grado di ricostruire tutte le variabili che sono state offerte alla macchina per compiere determinate scelte: è il caso delle mappe di Google, che non spiegano in base a quali calcoli venga indicato all’automobilista il percorso più veloce. Di tutte le intelligenze artificiali, ce n’è una che ci ha sorpreso a partire dal 2018: in quell’anno Google brevetta un tipo di operazione matematica che prende il nome di Trasformer, un assistente personale nella compilazione del testo sviluppato da un suo competirtpor, OpenAI, che ha creato ChatGPT, di cui si sta tanto discutendo in queste settimane. Si basa sullo stesso sistema con cui i telefoni ci “aiutano” a scrivere le mail, consigliandoci le parole seguenti. Quello che nessuno aveva previsto è che questi sistemi, superati i cento miliardi di dati, hanno iniziato a sviluppare interi paragrafi e a fare calcoli matematici, spesso sbagliati, mostrando capacità che nessuno pensava avessero. E hanno iniziato a raccontare fatti storici, spesso non veri. Questo ha cambiato radicalmente il mercato, che si è concentrato al 90% su questi sistemi di elaborazione del testo. Il problema è che a lavorare a questo sviluppo sono oggi trenta aziende private e solo tre università pubbliche, si è quindi invertito quel paradigma secondo cui l’università produce la conoscenza e le aziende la utilizzano”.
Leggi tutto su www.wired.it
di Fabio Salamida www.wired.it 2023-04-24 09:47:24 ,