Wired Lab racconterà l’intelligenza artificiale. Lei spesso suggerisce di parlare di “intelligenza e artificiale”. Come cambia la nostra relazione con le macchine, ma anche con l’argomento, se li scindiamo?
Propongo questa formula per far capire che la relazione tra noi e la macchina a volte è più importante della macchina stessa. A volte vedo un’attenzione esagerata per questi sistemi quando la cosa interessante è come cambia il nostro rapporto con il mondo che ci circonda e con il nostro lavoro. L’intelligenza ibrida emerge mettendo insieme le capacità degli esseri umani con le capacità delle macchine, un approccio olistico derivante dall’idea che la somma delle parti è più grande delle singole.
Ovviamente ci sono i grandi monopoli, bisogna capire se sia il caso di contrastarli, regolamentarli, governarli. C’è tutto il tema dell’accentramento e come l’utilizzo di questi sistemi possa ridistribuire alcuni rapporti di potere nell’informazione, nell’utilizzo dei social media.
Non dobbiamo avere aspettative esagerate e proiettare caratteristiche umane che non hanno. Sono macchine e sistemi che si comportano “come se”, ma è tutto un gioco di prestigio. Un sistema che simula umanità in un certo senso crea un legame o facilita la creazione di un legame e questo dà un enorme potere di condizionamento, di influenza a chi sta dietro a questi sistemi. Non è ancora chiarissimo quali possano essere tutti i casi di uso, di business, di queste tecnologie la cui funzione principale è rispondere adeguatamente a richieste.
Wired Lab invita a esplorare il territorio inesplorato dell’AI generativa. Quando parliamo di strumenti come ChatGPT, ci concentriamo troppo sul tema della creatività? Quali sono le potenzialità, in altri campi, a cui guardare più in profondità?
Se questi sistemi riuscissero ad automatizzare tutta una serie di pratiche documentali non sarebbe una cosa da poco. L’impatto che queste tecnologie possono avere anche solo limitandosi a produrre testi sensati è enorme, l’impatto sulla formazione difficilmente immaginabile. Imparare a scrivere è anche imparare a dare una struttura ai propri pensieri, nel momento in cui abbiamo una protesi così efficace per sostituire questo sforzo di esternalizzazione non possiamo immaginare quale possa essere l’effetto sul pensiero stesso. Pensiamo a cosa possa succedere tra dieci, quindici anni, quando tutte le nuove generazioni avranno un sistema che scrive per loro. Riusciranno a pensare nello stesso modo? Verranno potenziati o depotenziati?
Poi possiamo passare ai domini applicativi verticali, io conosco quello medico, mi occupo anche di quello giuridico. In questo caso più che all’Ai generativa, relativamente nuova, possiamo pensare all’impatto dell’Ai predittiva, che automatizza la diagnosi. Nel 2017, nel paper “Le conseguenze inattese del machine learning in medicina”, ponevamo il tema del deskilling, inteso come loss of skills, come depotenziamento. Nel momento in cui un medico può anche non sapere più leggere una immagine diagnostica, perché la interpreta una macchina, nel tempo le persone che lo sanno fare diminuiranno, andranno in pensione e i nuovi specialisti avranno avuto stimoli a imparare a leggere da sé ma è un po’ come l’ingegnere che negli anni ’70 inizia a fare di conto con le calcolatrici.
Però fare di calcolo è un’abilità diversa dall’interpretare un caso complesso come un caso medico, interpretare un’immagine che ha sfumature che possono sfuggire a diverse persone, trovate da altre. Si parla tanto di singolarità, termine reso noto da tutti quelli che ritengono che sia inevitabile che prima o poi arrivi un’Ai generale che sia assolutamente equivalente a quello che riesce a fare un essere umano o addirittura “superiore”. Io la penso come lo psicologo Gary Klein, che parla di una singolarità in atto, non in un futuro lontano, ma adesso, è la singolarità dell’expertise, cioè il fatto che adesso queste macchine in domini applicativi molto particolari, ma anche dagli importantissimi effetti legali (medicina, diritto, risorse umane, profilazione creditizia), esprimano giudizi, prendono decisioni, affiancate dall’essere umano, ma non possiamo capire o stimare quanto l’essere umano sia accondiscendente, si affidi a queste macchine o venga semplicemente condizionato.
Leggi tutto su www.wired.it
di Maria Rosaria Iovinella www.wired.it 2023-10-27 12:34:16 ,