Jimmy “Jimbo” Wales è il inventore della Fondazione Wikimedia e co-creatore di Wikipedia, l’enciclopedia libera e gratuita lanciata nel gennaio del 2001 che ha cambiato il nostro modo di cercare informazioni online. Oggi il suo sito web è un punto di riferimento centrale nel panorama web: così tanto visitato da essere tra i siti meglio indicizzati su Google e, più di recente, grazie alla sua sconfinata mole di informazioni ad accesso libero è diventato la banca dati più importante su cui è stata addestrata l’intelligenza artificiale di ChatGPT. Jimmy Wales, grazie alla sua vasta esperienza e al suo status di pioniere nel mondo di internet, rappresenta una delle voci più ascoltate e autorevoli per quanto riguarda gli sviluppi del web e delle tecnologie del digitale. Recentemente le sue posizioni sul futuro dell’intelligenza artificiale e su come regolamentarla hanno suscitato un ampio dibattito. Pertanto, approfittando della sua partecipazione al Web summit 2023 di Lisbona, Wired gli ha rivolto alcune domande per provare a inquadrare rischi e opportunità intorno a questa tecnologia in piena ascesa.
Pensa che l’AI generativa possa rappresentare una risorsa per Wikipedia e per l’ecosistema dei contenuti generati dagli utenti?
“È un’innovazione tecnologica molto eccitante e avrà un impatto sociale importante, ma è piuttosto difettosa sotto molti aspetti, come tutti sanno. La cosa più ovvia è che al momento non è in grado di gestire la struttura ad albero di Wikipedia: non ci si avvicina nemmeno. Inventa cose, persino le fonti. È abbastanza terribile. Ma pensiamo che in futuro possa essere utilizzata per esaminare la struttura ad albero delle diverse voci, per esaminare le fonti e cercare contraddizioni o informazioni mancanti. O, ancora, per dare suggerimenti alla comunità. Il nostro team di apprendimento automatico sta lavorando su molte idee diverse”.
L’ultima versione di GPT è connessa direttamente al web e ne estrae i dati in tempo reale. Potrebbe bypassare Wikipedia e allo stesso tempo fornire risultati che non sono corretti. Quali potrebbero essere le conseguenze di questo fenomeno?
“Nessuno apprezza ottenere risposte scorrette. Per questo motivo a Wikipedia non stiamo pensando di usare l’AI generativa in modo massiccio. Ma se fossimo in grado di prendere un modello linguistico di grandi dimensioni e addestrarlo sul nostro sito per migliorare la ricerca interna, potrebbe essere davvero interessante. Le persone non dovrebbero più andare su Bing o su Google e forse potrebbero venire direttamente da noi quando hanno una domanda. Non so se riusciremo a farlo, ci sono molte sfide tecniche a causa della natura dei modelli linguistici di grandi dimensioni. È estremamente complesso impedire a questa tecnologia di generare cose che sembrano plausibili ma che in realtà sono false, poiché questi algoritmi agiscono come generatori di parole basati sulla probabilità. Penso comunque che ci siano delle opportunità sull’accessibilità alle informazioni. Invece di andare a leggere un articolo e basta sarà possibile avere un dialogo con Wikipedia. Credo che questo sia interessante”.
Secondo alcuni, l’AI generativa potrebbe democratizzare la conoscenza, ma allo stesso tempo rappresenta un rischio per le democrazie. Qual è la sua opinione sull’impatto di queste tecnologie sulla società e sull’affidabilità delle informazioni?
“Nella misura in cui circolano disinformazione e fake news, questo è un male. In realtà credo sia un problema non causato dall’AI, ma dai modelli di business tossici dei social media che ci accompagnano da molto tempo. L’AI ha migliorato la capacità di alcuni attori di generare rapidamente informazioni false e plausibili, ma è un problema più complicato. Credo che dovremmo concentrarci su come lavorare per fornire informazioni di qualità alle persone. Penso che il pubblico si stia evolvendo in questo senso. Le persone stanno iniziando a capire che le foto sono facili da falsificare, più di quanto non lo fossero un tempo quando lo si faceva con Photoshop e per farlo in maniera credibile bisognava essere piuttosto bravi ad utilizzare i software. Ora, chiunque può creare una foto falsa e modificare un audio e così via – questo è un cambiamento fondamentale”.
In una recente intervista alla Bbc lei ha definito “pensiero magico” l’idea che l’AI possa essere controllata, affermando l’illegittimità da parte degli organi sovranazionali come l’Onu di legiferare in questo ambito. Qual è la sua posizione sulla regolamentazione dell’AI?
“Innanzitutto l’Onu non ha alcuna autorità su ciò che uno sviluppatore fa a casa propria. Potrebbe influenzare le legislazioni nazionali, ma anche in questo caso, i governi non possono certo regolamentare ciò che gli sviluppatori di software fanno a casa loro usando Photoshop o qualsiasi altro programma. Non è nemmeno lontanamente plausibile. Le persone hanno in mente un modello secondo il quale l’AI può essere realizzata solo da cinque o dieci grandi aziende, e quindi basta regolamentare quelle, ma non è questa la situazione in cui ci troviamo. I modelli linguistici di grandi dimensioni disponibili open source sono ancora un passo indietro rispetto a quelli dei grandi produttori, ma sono già abbastanza avanzati per procurare grossi danni, e non c’è modo di tornare indietro. Quindi penso che se le persone credono davvero che sia necessario che il governo faccia qualcosa, beh, non succederà mai. Cerchiamo di essere realisti. Non è affatto la risposta”.
Leggi tutto su www.wired.it
di Roberto Pizzato www.wired.it 2023-12-23 06:00:00 ,