Recentemente Elon Musk ha fatto di nuovo scalpore rivelando al giornalista e provocatore di destra statunitense Tucker Carlson – che da lì a poco sarebbe stato licenziato da Fox News – il suo progetto di costruire TruthGpt, un chatbot rivale di ChatGpt. Il miliardario sostiene che il popolare servizio di OpenAi sia condizionato da pregiudizi woke e sembra deciso a sviluppare un'”intelligenza artificiale alla massima ricerca della verità” (come a voler suggerire che solo le sue opinioni politiche riflettano la realtà). Anche se Musk non certo l’unico a preoccuparsi dei possibili pregiudizi politici nei modelli linguistici, le altre iniziative mosse da timori simili stanno cercando di utilizzare l’intelligenza artificiale per colmare i divari piuttosto che per promuovere particolari punti di vista.
David Rozado, un data scientist neozelandese, è stato uno dei primi a richiamare l’attenzione sul problema dei pregiudizi politici di ChatGpt. Alcune settimane fa, dopo aver documentato quelle che lui giudica risposte sbilanciate a sinistra da parte del bot su questioni come la tassazione, il possesso di armi da fuoco e il libero mercato, Rozado ha creato un modello di intelligenza artificiale chiamato RightWingGpt che esprime posizioni più conservatrici: è favorevole al possesso di armi e non ama le tasse. Il ricercatore è partito da un modello linguistico chiamato Davinci Gpt-3 – simile ma meno potente di quello alla base di ChatGpt – e lo ha perfezionato alimentadolo con dei testi aggiuntivi, il tutto investendo solo poche centinaia di dollari in servizi dicloud computing. A prescindere dall’opinione sul merito del progetto, RightWingGpt dimostra quanto facile sarà in futuro fare in modo che i modelli linguistici mostrino punti di vista diversi.
Parlando con Wired US, Rozado ha raccontato di voler costruire anche un modello linguistico più liberale (LeftWingGpt) e un altro chiamato DepolarizingGpt, che secondo lui dimostrerà una “posizione politica depolarizzante“. Rozado e l’Institute for Cultural Evolution, un think tank centrista americano, hanno in programma di rendere disponibili i tre modelli quest’estate.
Bot schierati
L’interesse verso lo sviluppo di bot Ai più schierati rischia di alimentare la divisione politica. Negli Stati Uniti, alcune organizzazioni conservatrici stanno già costruendo concorrenti di ChatGpt. Il social network Gab, per esempio, noto per il suo bacino di utenti di estrema destra, sta lavorando a uno strumento Ai capace di “generare contenuti liberamente, senza vincoli della propaganda progressista avvinghiati al suo codice“. Le ricerche suggeriscono che i modelli linguistici possono influenzare in maniera subdola le posizioni morali degli utenti. In questo senso, qualsiasi inclinazione politica mostrata da un sistema Ai potrebbe avere conseguenze. Il governo cinese ha recentemente emanato nuove linee guida sull’intelligenza artificiale generativa che mirano a controllare il comportamento dei modelli e plasmarne la sensibilità politica.
OpenAi segnala che i modelli di intelligenza artificiale più avanzati possono avere più possibilità di “rafforzare ideologie, visioni del mondo, verità e falsità“. A febbraio l’azienda ha dichiarato in un post sul suo blog di voler esplorare lo sviluppo di modelli che permettano agli utenti di definire i propri valori. Rozado, che dice di non aver parlato con Musk del suo progetto, punta a suscitare una riflessione piuttosto che a creare bot in grado di diffondere una specifica visione del mondo: “Speriamo che come società saremo capaci di imparare a creare intelligenze artificiali che si focalizzino sul costruire ponti piuttosto che seminare divisioni”. L’obiettivo di Rozado è ammirevole, ma il problema di stabilire cosa sia oggettivamente vero attraverso la nebbia creata dalle divisioni politiche – e di insegnarlo ai modelli linguistici – potrebbe rivelarsi un enorme ostacolo.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-05-07 16:00:00 ,