Nel caso del churros, ChatGPT sembrerebbe inoltre aver semplicemente accettato l’input ricevuto dagli utenti, che gli chiedevano di descrivere le proprietà in ambito chirurgico del dolce spagnolo, limitandosi a unire le informazioni trovate su di esso e sovrapponendole all’argomento “chirurgia”, senza accorgersi che il risultato era privo di senso. ChatGPT potrebbe anche essersi limitato a sostituire il termine “churros” a testi dov’era presente, per esempio, “bisturi”.
Merito nostro
Ma se è così, perché ChatGPT e gli altri strumenti affini scrivono spesso cose sensate, invece di produrre in ogni occasione frasi senza logica? Sempre Gary Marcus spiega come il merito non sia tanto di ChatGPT, ma di noi esseri umani. “L’immenso database a cui ChatGPT ha accesso consiste interamente di linguaggio emesso dall’essere umano con enunciati che (solitamente) sono basati sul mondo reale”. Di conseguenza, ChatGPT sembra spesso dire cose sensate perché sta mettendo assieme – ricomponendole – delle cose effettivamente dette da persone reali. Inoltre, ChatGPT utilizza la statistica per capire (pur con gli errori che abbiamo visto) quali proprietà abbiano maggiore probabilità di combinarsi correttamente con altre.
Da un certo punto di vista, ChatGPT è il re delle supercazzole: frasi che sembrano avere un senso pur essendone prive, ma costruite in un modo che può ingannare chi non conosce il tema di cui si parla. Come spiega la Tech Review, “è comunque necessario che un utente riconosca una risposta sbagliata o una domanda fraintesa. Questo approccio però non funziona se vogliamo chiedere a un modello come GPT qualcosa di cui già non conosciamo la risposta”.
Ed è per questo che, a differenza di quanto sostenuto da più parti, ChatGPT non può sostituire i motori di ricerca, perché a meno di non chiedere sempre domande relative a questioni sulle quali siamo già ferrati, non abbiamo modo di sapere se la risposta che ChatGPT ci sta fornendo è corretta o è inventata.
Google, per quanto non sempre affidabilissimo, per il momento può dormire sonni tranquilli: “Non c’è modo di addestrare un large language model affinché separi i fatti dalle finzioni. E creare un modello che sia più cauto nel fornire risposte spesso gli impedirebbe di dare anche risposte che si sarebbero poi verificate corrette”, ha spiegato la responsabile tecnologica di OpenAI Mira Murati.
Sempre OpenAI sta lavorando a un altro sistema, chiamato WebGPT, che può cercare sul web le informazioni richieste e anche fornire le fonti utilizzate. ChatGPT potrebbe essere aggiornato per ottenere questa abilità nel giro di pochi mesi. Per il momento, però, è bene non fidarsi in alcun modo delle informazioni reperite con questo software: più che a Google, ChatGPT sembra fare concorrenza al conte Lello Mascetti.
Leggi tutto su www.wired.it
di Andrea Daniele Signorelli www.wired.it 2022-12-18 06:00:00 ,