Brando Benifei, relatore del testo, ha detto che “il riconoscimento delle emozioni è proibito”. “Abbiamo chiare indicazioni sui casi d’uso vietati che non sono ammessi in Europa, come la polizia predittiva, il social scoring e il riconoscimento biometrico”, ha poi agggiunto, precisando che “è permesso usare i cosiddetti sistemi di analisi dei crimini, ma senza che siano applicati a specifici individuai ma solo a dati anonimi e non devono indurre a pensare che qualcuno abbia commesso un crimine”. È inoltre prevista una notifica nei casi d’uso alle autorità indipendenti chiamate a sovrintendere al settore.
Il dossier è molto complesso e comprende, oltre all’identificazione biometrica da remoto, sistemi di intelligenza artificiale ad alto rischio da parte della polizia, le eccezioni per le forze dell’ordine, quelli per motivi di sicurezza nazionale, il divieto di esportazioni di tecnologie, anche nate in ambito civile, per applicazioni rischiose, che potrebbero mettere a rischio i diritti fondamentali di paesi terzi.
La questione dei modelli fondativi
L’altro punto delicato sul tavolo era la regolazione dei modelli fondativi (foundational models). Ossia quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. Il secondo riguardava gli usi ammessi e quelli proibiti dei sistemi di intelligenza artificiale da parte delle forze dell’ordine. Dal riconoscimento biometrico in tempo reale fino alla polizia predittiva. In entrambi i casi, la distanza tra Parlamento e Consiglio era siderale.
Nel caso dei modelli fondativi, la proposta da discutere consisteva in due livelli di inquadramento di questi sistemi. E, di conseguenza, di obblighi da rispettare. La proposta crea due corsie. Da una parte le cosiddette AI ad alto impatto, identificata da un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale). Al momento, solo GPT-4 di OpenAI rispetterebbe questa caratteristica. All’AI ad alto impatto la legge comunitaria richiede una applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Al di sotto si collocano tutti gli altri foundational models, di più piccolo cabotaggio. In questo caso l’AI Act scatta quando gli sviluppatori commercializzano i propri prodotti. “Abbiamo scelto un indicatore non di fatturato che non identifica solo le aziende più grandi, ma riconosce dall’ampio impatto i modelli che possono essere porre i maggiori i rischi”, ha detto Carme Artigas, segretaria di Stato all’innovazione del governo spagnolo (che aveva la presidenza del Consiglio europeo). Da queste previsioni sono esclusi i modelli destinati alla ricerca.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2023-12-09 00:46:14 ,