Un gruppo di ricercatori italiani ha scoperto che ChatGPT, il popolarissimo chatbot di OpenAI, è in grado di generare falsi set di dati a sostegno di ipotesi scientifiche non verificate su richiesta degli utenti. La scoperta pone l’accento sulla necessità di migliorare i metodi di revisione scientifica per scongiurare un uso non etico degli strumenti di intelligenza artificiale.
Fake news scientifiche
A mettere alla prova le nuove capacità di ChatGPT sono stati Andrea Taloni e Vicenzo Scorcia dell’azienda ospedaliero universitaria Mater Domini di Catanzaro, e Giuseppe Giannaccare dell’azienda ospedaliero-universitaria di Cagliari. Lo scorso marzo, OpenAI ha presentato il suo modello linguistico più avanzato, GPT-4, che rispetto al suo predecessore presentava progressi significativi nella comprensione semantica e nella generazione di contenuti testuali. A qualche mese di distanza, la società ha ulteriormente migliorato ChatGPT incorporando la funzione Advanced data analysis (Ada), che consente l’analisi statistica e la visualizzazione dei database degli utenti. A fronte di un’evoluzione simile, il ricorso all’AI anche per scopi scientifici diventa un’opzione interessante, che potrebbe accelerare il processo di ricerca e la generazione di documenti.
Le recenti capacità di ChatGPT hanno però sollevato delle perplessità nei ricercatori italiani. In particolare, il team riteneva che la funzione di analisi avanzata dei dati potesse essere utilizzata in modo non etico anche in campo scientifico. Gli scienziati hanno quindi messo a punto un esperimento per verificare l’ipotesi.
L’esperimento del team italiano
Taloni, Scorcia e Giannaccare hanno simulato una ricerca che mostrava i risultati di due interventi chirurgici usati per trattare un problema agli occhi. Hanno poi chiesto a ChatGPT e Ada di generare un database per supportare la procedura meno efficace e presentarla come l’opzione migliore. L’intelligenza artificiale ha generato dati relativi a 160 soggetti di sesso maschile e 140 di sesso femminile. Secondo gli autori dell’esperimento, il rischio è che le statistiche prodotte da ChatGPT possano passare per vere se non si presta sufficiente attenzione.
L’infezione oculare oggetto delle procedure si chiama cheratocono e causa problemi di concentrazione e alla vista, oltre a un assottigliamento della cornea. Nei casi più gravi, i pazienti necessitano di un trapianto. A quel punto, i medici possono trattare l’infezione rimuovendo gli strati danneggiati della cornea e sostituendoli con tessuto sano (cheratoplastica perforante) oppure sostituendo solo lo strato anteriore della cornea senza toccare quello interno (cheratoplastica lamellare anteriore profonda). Le evidenze reali indicano che la prima opzione è la più efficace, mentre i dati inventati dall’AI andavano a sostegno della seconda procedura.
“Il nostro obiettivo era quello di evidenziare che, in pochi minuti, è possibile creare un set di dati che non è supportato da informazioni reali, e che va nella direzione contraria rispetto alle prove disponibili“, ha dichiarato Giuseppe Giannaccare.
Nonostante la crisi che nell’ultima settimana ha travolto OpenAI – con il licenziamento a sorpresa e il successivo reintegro dell’amministratore delegato Sam Altman – l’azienda continua a lavorare su GPT-4. Ad oggi la startup non ha rilasciato dichiarazioni sulla possibilità che il suo sistema Ada venga usato in modo inappropriato per corroborare tesi scientifiche errate.
Questo articolo è apparso originariamente su Wired en español.
Leggi tutto su www.wired.it
di Jorge Garay www.wired.it 2023-11-25 05:50:00 ,