Modelli di intelligenza artificiale ad alto impatto. È questa l’etichetta proposta nel negoziato sull’AI Act, il pacchetto di regole comunitarie sull’intelligenza artificiale, per identificare i modelli fondativi. Come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. L’obiettivo è creare due corsie sugli obblighi che gli sviluppatori di questi sistemi sono tenuti a rispettare. Da una parte, per l’appunto, le AI ad alto impatto, per le quali si richiede una applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Dall’altra, i restanti foundation models, per i quali le previsioni della legge europea sull’intelligenza artificiale scattano quando gli sviluppatori commercializzano i propri prodotti.
L’approccio sembra mettere d’accordo il Parlamento europeo e il Consiglio, che rappresenta i governi dei 27 Stati dell’Unione. E ricalca di fatto quello del Digital services act (Dsa), uno dei nuovi pacchetti comunitari sul digitale. Il Dsa identifica le cosiddette grandi piattaforme online e i grandi motori di ricerca (nel lessico tecnico, rispettivamente Vlop e Vlose). Vlop e Vlose sono tenuti a rispettare regole più stringenti sulla propria attività e farlo prima degli altri operatori. Qualcosa di simile si vuole fare per i più importanti sviluppatori di intelligenza artificiale, imponendo verifiche da parte di team esterni, controlli di conformità e un processo per mitigare i rischi che vengono a galla.
La situazione:
Il doppio livello
Se l’AI Act interviene sui prodotti (per intendersi, su ChatGPT), la proposta in discussione mira a risalire la corrente fino ai foundational models, ossia i modelli alla base (per esempio, GPT-4), nel caso di sistemi considerati ad alto impatto. Sia per il numero di utenti che li usano, sia per le potenziali applicazioni. OpenAI, Microsoft, Google, Meta, ma anche startup come Anthropic con il suo Claude o Stability Ai dietro Stable Diffusion, potrebbero finire per prime nel mirino di questa stretta. “Se il livello di impatto è più elevato, è corretto chiedere qualcosa in più – commenta a Wired Brando Benifei, relatore dell’AI Act al Parlamento europeo -. È un modo anche per sostenere l’innovazione delle startup e dei nuovi modelli specie in Europa. Se tutti avessero gli stessi obblighi, anche i più piccoli, il rischio sarebbe o di mettere troppo ostacoli alle startup o di non regolare adeguatamente i più grandi“.
L’approccio piace alla Commissione. Meno agli Stati del Consiglio che, in generale, spingono per allentare il più possibile le briglie, in particolare sull’uso di strumenti biometrici per la sorveglianza e il controllo. Un pallino delle cancellerie del blocco. Ad ogni modo, pur di chiudere l’accordo prima che finisca la legislatura nella primavera del 2024 e intestarsi il traguardo, la presidenza spagnola di turno del Consiglio è disposta ad accettare il compromesso. Bisognerà vedere anche come la prenderanno i big del settore. Difficile che il boccone non vada di traverso. Google e Microsoft hanno già il loro bel daffare con Dsa e Digital markets act, un altro pacchetto di regole europee. E nel frattempo i due colossi, insieme a OpenAI e Anthropic, hanno annunciato un fondo di 10 milioni di dollari per finanziare ricercatori, università e centri studi per analizzare gli aspetti di sicurezza dell’intelligenza artificiale.
I prossimi passi
L’ultimo round di negoziati sull’AI Act, che si è svolto il 24 ottobre fino a tarda notte, si è chiuso con l’accordo su un principio: dimostrare la conformità dei sistemi di intelligenza artificiale in applicazioni considerate ad alto rischio da vietare. “Non abbiamo ancora deciso quali“, afferma Benifei, e la lista dei casi sarà oggetto del rush finale della discussione. Mentre è stata concordata l’eccezione, che riguarda i sistemi di AI che non influiscono sulle decisioni umane. Fraseggio delicato, che dovrà essere controbilanciato proprio dalla lista dei tipi di algoritmi da vietare.
Il tempo stringe. Il 6 dicembre è in calendario l’ultimo trilogo (ossia la negoziazione a tre: Parlamento, Consiglio e Commissione) e in quel momento si dovrà mettere la parola fine alle trattative. Sempre che si voglia chiudere la discussione dell’AI Act entro il 2023. Siccome occorre identificare ancora molti dettagli, a Bruxelles si svolgeranno incontri ristretti di alto livello per tutto novembre per mettere nero su bianco gli obblighi dei sistemi di AI e identificare quelli ad alto impatto. Nel frattempo a Madrid si svolgerà un incontro pubblico durante il quale la Commissione lancerà l’AI Pact, ossia un sistema per anticipare l’adeguamento alle regole dell’AI Act da parte di imprese e aziende pubbliche. Bruxelles metterà a disposizione una piattaforma alla quale gli operatori interessati potranno registrarsi in anticipo e poi procedere alle operazioni di compliance. Un modo anche per censire quanti saranno pronti ad accendere i motori delle nuove regole quando l’AI Act sarà realtà.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2023-10-25 14:43:01 ,