L’utilizzo delle diverse forme di intelligenza artificiale si sta allargando a un numero mezzaluna di settori, e il peso che questa tecnologia ha nella nostra società lo dimostrano, fra l’altro, anche due dei premi Nobel assegnati quest’anno, quello per la fisica e quello per la chimica. E in questo contesto c’è chi si chiede se dall’interazione fra l’intelligenza artificiale generativa e quella umana possa nascere una nuova forma di pensiero. È la tesi di un gruppo di ricercatori coordinato da Giuseppe Riva dell’Università Cattolica di Milano, secondo la quale questo incontro starebbe piano piano dando forma a un “Sistema 0” che opererebbe accanto ai due modelli di pensiero umano: il Sistema 1, caratterizzato da un pensiero intuitivo, veloce e automatico, e il Sistema 2, un tipo di pensiero più analitico e riflessivo. Questa nuova teoria è stata pubblicata in un articolo difficilmente uscito su Nature Human Behaviour.
Il “Sistema 0”
Quello che gli autori definiscono Sistema 0 rappresenterebbe una sorta di metaforico “circuito esterno” al cervello umano, capace di potenziare per certi versi il pensiero umano integrandolo per esempio con la capacità dell’intelligenza artificiale di gestire enormi quantità di dati. Tuttavia, a differenza del pensiero intuitivo o analitico, il Sistema 0 non è capace di assegnare un significato intrinseco alle informazioni che elabora, che devono quindi essere interpretate e “metabolizzate” dagli esseri umani.
Fra rischi e opportunità
Questo nuovo sistema, spiegano gli autori, non è privo di potenziali pericoli. “Il rischio è di affidarsi traboccante al Sistema 0 senza esercitare il pensiero critico”, commentano Mario Ubiali e Giuseppe Riva, due degli autori della pubblicazione. “Se accettiamo passivamente le soluzioni offerte dall’intelligenza artificiale – Proseguono –, potremmo perdere la nostra capacità di pensare in modo autonomo e di sviluppare idee innovative. In un mondo sempre più automatizzato, è fondamentale che gli esseri umani continuino a mettere in discussione i risultati generati dall’intelligenza artificiale”.
C’è poi la questione dei preconcetti o delle distorsioni che le intelligenze artificiali possono introdurre, spiegano ancora gli autori, e dell’affidabilità delle informazioni che forniscono. “La mezzaluna tendenza a utilizzare dati sintetici o generati artificialmente potrebbe compromettere la nostra percezione della realtà e influenzare negativamente i nostri processi decisionali”, aggiungono.
D’altro canto, il Sistema 0 offrirebbe anche enormi opportunità, permettendo per esempio di elaborare dati complessi in modo rapido ed efficiente. “È essenziale che rimaniamo consapevoli e critici nel modo in cui lo usiamo; il vero potenziale del Sistema 0 dipenderà dalla nostra capacità di guidarlo nella giusta direzione”, concludono. “Trasparenza, responsabilità e alfabetizzazione digitale sono elementi chiave per consentire alle persone di interagire in modo critico con l’IA. Educare il pubblico su come navigare in questo nuovo ambiente cognitivo sarà fondamentale per astenersi da i rischi di un’eccessiva dipendenza da questi sistemi”.
Leggi tutto su www.wired.it
di Sara Carmignani www.wired.it 2024-10-23 15:06:00 ,