La prima tappa sarà il 2 o 9 febbraio. In uno dei due giorni si svolgerà il voto finale del Consiglio europeo sull’AI Act, il pacchetto comunitario di norme sull’intelligenza artificiale. Entro metà febbraio è previsto anche il passaggio del regolamento alla Commissione per il mercato interno del Parlamento europeo, prima della votazione definitiva dell’assemblea che andrà in calendario a marzo o, più verosimilmente per ragioni di traduzione dei testi, ad aprile. È questa la tabella di marcia che guiderà l’approvazione dell’AI Act prima della fine della legislatura e le elezioni europee del prossimo giugno.
Il calendario
Dopo che nella notte tra l’8 e il 9 dicembre Consiglio e Parlamento hanno trovato l’accordo politico sul regolamento, il documento è passato al vaglio dei tecnici per le finiture sul testo. “**Non parliamo di cambi sostanziali **- spiega a Wired Brando Benifei, eurodeputato del gruppo Socialisti e democratici e correlatore dell’AI Act – ma di verifiche sulla coerenza dei termini e sulla trasposizione nei vari articoli”. Benifei sgombra anche il campo dall’ipotesi di un passo indietro della Germania sulla legge, che avrebbe scritto a Francia e Italia per fare dietrofront sull’accordo, come riferito da Politico. “Non ci sono problemi”, dice il deputato. Secondo Euractiv, ci sarebbe stata una discussione, finita in un nulla di fatto per un mancato accordo tra le parti.
Il pacchetto viaggia verso il Comitato dei rappresentanti permanenti degli Stati (Coreper), nell’ambito del quale sarà votato e approvato dal Consiglio. Due le date: 2 o 9 febbraio. A quel punto la palla passa nel campo dell’Europarlamento, dove Benifei anticipa che la strada è in discesa. Il processo si chiuderà ad aprile. L’AI Act entrerà subito in vigore a pezzi. Dopo sei mesi scattano i divieti. Entro un anno tocca alle norme sui modelli fondativi, che prevedono due livelli di inquadramento di questi sistemi. E, di conseguenza, di obblighi da rispettare. La proposta crea due corsie. Da una parte le cosiddette AI ad alto impatto, identificata da un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale). Al momento, solo GPT-4 di OpenAI rispetterebbe questa caratteristica. All’AI ad alto impatto la legge comunitaria richiede una applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Al di sotto si collocano tutti gli altri foundational models, di più piccolo cabotaggio. In questo caso l’AI Act scatta quando gli sviluppatori commercializzano i propri prodotti. Infine, due anni dopo (nel 2026), si applicherà il pacchetto per intero. L’AI Act fissa anche le sanzioni per chi sgarra: dall’1,5% del fatturato globale (o 7,5 milioni di euro) fino al 7% (o 35 milioni).
Il braccio di ferro
L’accordo raggiunto a dicembre è stato sofferto: 36 ore di negoziati, arrivati vicino a un punto di non ritorno quando si è dovuto decidere sugli usi ammessi e vietati dell’intelligenza artificiale da parte delle forze dell’ordine. Dal riconoscimento biometrico in tempo reale fino alla polizia predittiva. Ha prevalso la volontà di chiudere un’intesa sotto la presidenza spagnola del Consiglio ed evitare di procrastinare la discussione fino ad arrivare troppo a ridosso delle elezioni europee, con il rischio di farla fallire.
Con l’AI Act l’Unione europea diventa il primo consesso di Stati ad approvare un regolamento complessivo sull’uso dell’intelligenza artificiale. Il regolamento (che, in quanto tale, sarà effettivo senza bisogno che le singole nazioni lo recepiscano) è impostato su un’architettura di rischi, suddivisi in quattro categorie: minimi, limitati, alti, inaccettabili. Maggiore è il rischio, maggiori le responsabilità e i casi per chi sviluppo o adopera sistemi di intelligenza artificiale. Fino alle applicazioni considerate troppo pericolose per essere autorizzate. Tra questi vi sono sistemi di categorizzazione biometrica che fanno riferimento a dati personali sensibili, come il credo religioso, l’orientamento politico o sessuale; la pesca a strascico (scraping) da internet di volti, come fece anni fa la contestata startup Clearview AI; il riconoscimento delle emozioni sul posto di lavoro o a scuola; i sistemi di punteggio o social scoring; le AI usate per manipolare la volontà delle persone o per sfruttare i loro aspetti più vulnerabili.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2024-01-13 05:40:00 ,