Conto alla rovescia per l’incontro decisivo dei negoziati sull’AI Act, il pacchetto di regole comunitarie sull’intelligenza artificiale. Il 6 dicembre è in calendario la riunione che potrebbe segnare il via libera finale alla legislazione, dotando l’Unione europea di norme del settore dopo dodici mesi in cui il mondo, a seguito del lancio di ChatGPT sul mercato, ha potuto toccare con mano la rivoluzione dell’intelligenza artificiale. L’AI Act, composto da 85 articoli, inquadra i diversi sistemi di intelligenza artificiale e i relativi paletti, proibisce alcune applicazioni e introduce procedure di salvaguardia per mettere al riparo i cittadini dell’Unione da abusi e violazioni dei diritti fondamentali.
Il negoziato a tre tra Commissione, Parlamento e Consiglio europeo, il cosiddetto trilogo, è alle battute finali. Sul tavolo, però, ci sono due aspetti delicati. E che potrebbe far saltare l’accordo. Primo: che regole applicare ai modelli fondativi (foundational models), ossia quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati. Come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. Secondo: che strada intraprenderà l’Europa sull’uso dell’AI per compiti di polizia e di sorveglianza. Il braccio di ferro è tra il Parlamento, determinato a introdurre regole stringenti, e il Consiglio, che vuole un approccio più accomodante e mani libere in materia di polizia.
La situazione:
Che fare con i modelli fondativi
Sul fronte dei modelli fondativi, in gioco c’è la proposta di creare due corsie sugli obblighi che gli sviluppatori di questi sistemi sono tenuti a rispettare. Da una parte ci sono le cosiddette AI ad alto impatto, per le quali si richiede una applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Dall’altra, i restanti foundation models, per i quali le previsioni della legge europea sull’intelligenza artificiale scattano quando gli sviluppatori commercializzano i propri prodotti.
Se passasse questa linea, che ricalca il Digital services act (Dsa), uno dei nuovi pacchetti comunitari sul digitale, OpenAI, Microsoft, Google, Meta, ma anche startup come Anthropic con il suo Claude o Stability Ai dietro Stable Diffusion, potrebbero finire per prime nel mirino di questa stretta. Ma anche la francese Mistral, che sta costruendo un suo modello fondativo e ha il sostegno dell’Eliseo, o la tedesca Aleph Alpha. A fine ottobre Parlamento e Consiglio, l’organo che rappresenta i 27 Stati, sembravano d’accordo sull’identificazione delle AI ad alto impatto. Poi, però, il secondo ha fatto un passo indietro, sotto pressione delle grandi aziende tecnologiche. E a fine novembre Francia e Germania (che hanno due startup nel settore) insieme all’Italia hanno chiesto di escludere i modelli fondativi dall’AI Act. Una posizione su cui, a Roma, è emersa una spaccatura dentro il governo e Fratelli d’Italia, tra il ministro delle Imprese e del made in Italy, Adolfo Urso, sostenitore dell’esclusione, e il sottosegretario all’Innovazione digitale, Alessio Butti, favorevole a forme di salvaguardia.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2023-12-04 06:10:00 ,