L’AI Act si esprime anche sull’intelligenza artificiale generativa, argomento entrato in corsa nel testo scritto per la prima volta due anni fa, specie dopo l’esplosione di ChatGPT. Il testo si riferisce a sistemi di AI per uso generale, in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. Il regolamento fissa una soglia per identificare i sistemi ad alto impatto, che hanno maggiori effetti sulla cittadinanza e perciò devono rispettare obblighi più stringenti. Il valore è un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale). Al momento, solo GPT-4 di OpenAI, Gemini di Google e qualche modello cinese rispetterebbero questa caratteristica. Ma dovranno essere gli sviluppatori a comunicarlo alla Commissione, che per adesso non si esprime sui modelli già nei radar dell’AI Act. Da Bruxelles fanno sapere che la soglia potrà essere modificata in futuro, per meglio rispondere alle evoluzioni di mercato.
Le AI ad alto impatto dovranno applicare ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Al di sotto si collocano tutti gli altri foundational models. Tra cui le due startup made in Europe: la francese Mistral e la tedesca Aleph Alpha. In questo caso l’AI Act scatta quando gli sviluppatori commercializzano i propri prodotti. E sono previste esenzioni per i modelli dedicati alla ricerca. Questi sistemi dovranno anche avere un via libera dai detentori del diritto d’autore per poter utilizzare materiale protetto da copyright per l’addestramento. Sono molte le cause che scrittori, case editrici e autori stanno valutando di intentare contro i grandi sistemi di AI per l’uso di scritti, romanzi e opere nell’addestramento degli algoritmi. Non è chiaro, tuttavia, come si regolerà l’esistente.
I prossimi passi
La Commissione si doterà di un ufficio per l’intelligenza artificiale, insediato presso la direzione generale Connect (responsabile del digitale). Ancora non è chiaro di quante risorse sarò dotato, in termini di staff e budget, perché non è materia dell’AI Act stabilirlo. Ad affiancarlo ci sarà un team di esperti per le AI di uso generale, chiamato a fornire consulenza scientifica, a identificare potenziali minacce o rischi su cui intervenire o nuove applicazioni che meritano di essere inquadrate dal regolamento. Ogni Stato dovrà nominare un’autorità locale che sovrintende l’applicazione del regolamento in tandem con il Garante per la protezione dei dati. L’AI Act fissa anche le sanzioni per chi sgarra: dall’1,5% del fatturato globale (o 7,5 milioni di euro) fino al 7% (o 35 milioni).
Il documento è ora sotto esame dei tecnici, che devono ripulire gli emendamenti dell’accordo e verificare la coerenza delle varie previsioni. A quel punto passerà al voto finale di Parlamento e Consiglio ed entrerà in vigore dopo 20 giorni dalla pubblicazione sulla Gazzetta ufficiale. I divieti saranno operativi dopo sei mesi, le regole sull’AI di uso generale dopo un anno e il regolamento nel suo complesso dopo due anni. Tuttavia, per accelerare l’adozione, la Commissione promuoverà l’AI Pact. Di fatto, un’adesione volontaria e preliminare all’entrata in vigore del regolamento per adeguarsi alle norme, in modo da non farsi trovare impreparati quando suonerà il gong.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2023-12-12 06:00:00 ,