Negli ultimi anni abbiamo imparato a conoscere (e persino a giocare con) l’intelligenza artificiale che scrive testi, crea immagini e anche canzoni basandosi sulle nostre più o meno accurate indicazioni. Ma cosa succederebbe – e che impatto avrebbe nelle nostre vite – se l’IA iniziasse a leggere e interpretare testi complessi in nostra vece? Dovremmo confrontarci con tematiche riguardanti la comprensione del testo, il deskilling umano, il riconoscimento o la perdita della voce autoriale e persino rivedere il processo di formazione delle idee.
E così anche un innocente e divertente gioco, come farsi riassumere un classico della letteratura dall’IA per fare bella figura durante una cena, rischia di diventare uno dei principali terreni di dibattito attorno alle nuove tecnologie. Di tutto questo si sta occupando Naomi Susan Baron, professoressa emerita di Linguistica presso l’American University di Washington. In occasione del Learning More Festival di Modena, sabato 9 novembre terrà un talk dal titolo Chi l’ha letto? L’impatto dell’Intelligenza Artificiale che legge.
Wired l’ha incontrata qualche giorno prima del suo talk e le ha chiesto di aiutarci a interpretare il presente e a immaginare gli scenari futuri.
Professoressa Baron, partiamo dal tema del suo intervento al Festival: cosa significa fare affidamento su un’intelligenza artificiale capace di comprendere e interpretare testi complessi?
“Anche se il cervello non è un muscolo, dobbiamo comunque allenarlo per mantenerlo efficiente. Leggere testi complessi o pieni di sfumature linguistiche è una forma di esercizio mentale. Abbandonarci all’IA significa perdere l’opportunità di allenare il cervello e rinunciare alla possibilità di interpretare un testo connettendolo ad altre nostre letture o esperienze.”
Può fornirci un esempio positivo e uno negativo di uso dell’IA?
“Sul fronte positivo l’IA è estremamente efficiente nel passare al setaccio montagne di informazioni scritte, più o meno complesse. Quindi se desideriamo un approccio rapido ci può offrire un’ottima bozza preliminare. Sul lato negativo, come avvertono tutte le aziende che sviluppano modelli di linguaggio, i risultati prodotti dall’IA non sempre sono accurati. Se vogliamo fidarci, dobbiamo verificare”.
Altri risvolti negativi?
“Se ci rivolgiamo costantemente all’IA per comprendere testi impegnativi, perdiamo la motivazione e la capacità di farlo da soli. Un tempo chiedevo ai miei studenti: ‘Cosa sapete fare quando Internet non funziona?’ Ora la mia domanda è: ‘Cosa siete in grado di leggere, scrivere o ricercare, se non avete accesso a un LLM (large language model, ndr)?’”
Leggi tutto su www.wired.it
di Federico Vergari www.wired.it 2024-11-08 05:50:00 ,