Fino a qualche tempo fa chiunque volesse avere informazioni su un argomento scientifico delicato e controverso, come la ricerca sulle cellule staminali o il cambiamento climatico, aveva un’unica soluzione (o quasi), Google. Ora, però, esiste un’altra opzione a disposizione degli utenti: porre una domanda a ChatGpt o a una qualunque altra piattaforma di intelligenza artificiale generativa, in grado di rispondere attingendo all’enorme quantità di informazioni disponibili online. Un’operazione che va fatta con le dovute accortezze, considerando che l’AI generativa si è fatta riconoscere soprattutto per la sua capacità di produrre disinformazione. Un atteggiamento che ci mette in allerta sulla possibilità che ChatGpt possa arrivare addirittura a negare le evidenze scientifiche.
Anzitutto, è abbastanza chiaro che l’uso dell’AI come fonte di informazioni scientifiche finirà con il compromettere il rapporto di fiducia epistemica tra utenti ed esperti del settore, la cui credibilità sarà in qualche modo screditata dalla stessa intelligenza artificiale, in grado di accedere a una quantità di informazioni che nessuno scienziato può permettersi di consultare. In ogni caso, questo non basta a rendere le risposte di ChatGpt attendibili. Come abbiamo anticipato, infatti, uno dei principali difetti dell’AI generativa è la sua capacità di produrre e diffondere disinformazione, il che non fa altro che contribuire alla circolazione di informazioni scientifiche errate. Un dilemma che oramai affligge il settore già da un po’.
Secondo quanto riferito da Gizmodo, interrogato sul Covid 19, ChatGpt ha fornito risposte “fino alla mia data limite di conoscenza, cioè settembre 2021”. Questo significa che l’intelligenza artificiale potrebbe restituire informazioni errate e obsolete soprattutto in quei settori in cui la ricerca avanza velocemente. E la scienza è chiaramente uno di questi.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2023-06-12 14:00:00 ,