L’intelligenza artificiale (Ia) è una tecnologia estremamente potente e come tutti gli strumenti di questo tipo deve essere controllata da regole chiare, trasparenti e condivise. Per questo OpenAi, la società dietro al chatbot ChatGpt, ha messo in palio dieci borse di studio da 100mila dollari l’una, per finanziare un processo di confronto democratico e condiviso che definisca le norme e i principi su cui basare lo sviluppo dell’intelligenza artificiale.
L’iniziativa intende raccogliere proposte e progetti da candidati e candidate provenienti da tutto il mondo, con nessun prerequisito richiesto se non avere un’idea originale per condurre un vasto esperimento scientifico, in grado di coinvolgere un gruppo rappresentativo di almeno 500 persone per individuare quali regole andrebbero usate per tenere sotto controllo le intelligenze artificiali.
Chiunque può candidarsi. Basta inviare la propria idea sul portale di OpenAi, disponibile a questo link, compilando tutti i campi richiesti, entro il 24 giugno 2023. I vincitori e le vincitrici saranno selezionati il 25 luglio ed entro il 20 ottobre verranno resi noti al pubblico i primi risultati usciti dagli esperimenti condotti.
Le richieste
I progetti dovranno basarsi sull’analisi di una delle domande poste da OpenAi, che riguardano il rapporto tra intelligenza artificiale e politica, tra cui se l’Ia possa esprimere opinioni su personaggi pubblici o commentare le loro azioni, se possa essere autorizzata a criticare o elogiare i governi, esprimere o meno il sostegno o l’opposizione a un regime.
E ancora, cosa fare per evitare che l’Ia diffonda fake news, come garantire il rispetto della privacy e dei diritti umani, come misurare l’impatto sociale dell’Ia, come valutarne al meglio rischi e effetti positivi, come incoraggiare l’uso dell’Ia a fini positivi e scoraggiarne l’uso illecito e come fare a garantire che l’Ia non discrimini gruppi sociali e comunità.
È importate sottolineare che OpenaAi ha specificato di non considerare come vincolante nessun risultato, protocollo o suggerimento scaturito dagli esperimenti finanziati. Una precisazione che, di fatto, rende l’iniziativa non molto diversa da un grande sondaggio dato in subappalto da cui prendere spunto e nulla più. Non una vera “costituzione” per l’intelligenza artificiale o la base di un codice etico di condotta.
È lecito quindi domandarsi quale possano essere la portata e la destinazione di un approccio privato di questo tipo, rispetto a iniziative pubbliche come l’Ai Act dell’Unione europea. Un regolamento pionieristico che spaventa i vertici di OpenAi e delle altre aziende per le forti restrizioni all’uso pubblico e sconsiderato dell’intelligenza artificiale, che mette in primo piano il rispetto delle libertà civili e dei diritti umani.
Leggi tutto su www.wired.it
di Kevin Carboni www.wired.it 2023-05-29 15:20:08 ,