San Francisco (Stati Uniti) – Per le applicazioni di intelligenza artificiale generativa la vita in Europa potrebbe presto farsi più difficile. L’Unione europea è pronta ad accendere un faro sulla trasparenza nell’uso dei dati processati da programmi come ChatGPT di Open AI, per chiedere garanzie sull’assenza di discriminazioni e di bias che possano condizionare le elaborazioni degli algoritmi. Lo ha spiegato a un pool di giornalisti europei la commissaria europea all’Innovazione, Mariya Gabriel, che a San Francisco, California, ha tenuto a battesimo i primi Innovation days della storia comunitaria in Silicon Valley. “Guardo a questi temi con grande attenzione: seguiamo l’evoluzione della tecnologia perché, se necessario, dobbiamo essere in grado di intervenire più rapidamente rispetto al passato”, ha detto Gabriel.
A preoccupare Bruxelles è la capacità delle applicazioni di creare contenuti rielaborando le esperienze raccolte in rete: per l’Unione bisogna capire come vengono utilizzate le informazioni e cosa viene scelto dall’algoritmo di intelligenza artificiale per produrre i propri contenuti. “Le nostre leggi non è detto che siano adatte a contrastare le potenziali derive del fenomeno”, ha sottolineato la commissaria che si è mostrata preoccupata per le potenziali ricadute che potrebbero esserci sullo scenario politico.
“Studiamo tutto da vicino, dobbiamo identificare il processo di selezione delle informazioni e sapere come l’algoritmo viene alimentato perché senza alcun dubbio in Europa nessun programma può avere dei bias. Chiediamo trasparenza e rispetto di principi fondamentali: le discriminazioni – ha tagliato corto – non potranno mai essere accettate“.
Le analisi degli scienziati dell’Ecat di Siviglia
Le analisi preliminari che poi incideranno sulle decisioni della Commissione saranno fatte a Siviglia, dove il 18 aprile 2023 inaugurerà l’European Centre for Algorithmic Transparency (Ecat) aperto con il Joint Research Center. Per realizzare l’Ecat l’Unione si è mossa da tempo, prima che emergessero ChatGPT o Bard firmata Alphabet. Una volta entrato a pieno regime, il Centro contribuirà a definire la strategia comunitaria sul digitale e vedrà all’opera scienziati ed esperti che coopereranno con l’industria e la società civile per capire meglio il funzionamento degli algoritmi (e non solo quelli di intelligenza artificiale). I team di Siviglia, si legge sulle pagine dell’Unione dedicate al progetto, analizzeranno l’etica dei programmi e valuteranno i rischi legati all’utilizzo degli stessi algoritmi, “proponendo nuovi approcci trasparenti e best practice”.
Il Centro, ha sottolineato Gabriel, “sicuramente” potrà lavorare sullo sviluppo di alcune guideline che possano aiutare gli sviluppatori a scrivere righe di codice in linea con i principi comunitari, segnalando cosa è “incoerente con la nostra legislazione e dove serve adattare o migliorare il programma” per renderlo omogeneo agli standard europei.
“La trasparenza degli algoritmi sarà un tema ricorrente in futuro e sono contenta di aver contribuito alla nascita dell’Ecat: sono certa che i ricercatori affronteranno questo problema il prima possibile”, ha aggiunto Gabriel. “Quando si parla del rapporto tra algoritmi e trasparenza ci si trova sempre di fronte a un dilemma: non è possibile essere trasparenti perché dietro ogni codice c’è l’interesse commerciale di un’azienda che ha investito vent’anni di lavoro per sviluppare un prodotto; lo capiamo e sappiamo quali sono i limiti – ha detto la commissaria – ma allo stesso tempo bisogna mostrare se il prodotto finale sviluppato dall’algoritmo è generato nel rispetto dei nostri principi. Al momento non è accettata questa visione. Con il Centro di Siviglia vogliamo dimostrare che la trasparenza è possibile, senza entrare nell’interesse privato e commerciale delle aziende che hanno sviluppato il codice. Un equilibrio delicato”.
Leggi tutto su www.wired.it
di Michele Chicco www.wired.it 2023-03-30 05:00:00 ,