Life2vec è un modello di intelligenza artificiale in grado di prevedere i decessi precoci con un’accuratezza del 78 %. La nuova AI è frutto di una ricerca della Technical University of Denmark, pubblicata su Nature Computational Science.
Come funziona Life2vec
Il sistema utilizza un’architettura simile a quella di ChatGPT. È stato addestrato usando un database contenente le informazioni personali e socio-demografiche di sei milioni di danesi, fornito dalle autorità governative del paese. Attraverso una rete neurale di deep learning basata su un modello linguistico di grandi dimensioni, Life2vec analizza parametri come l’istruzione, la salute, il reddito e l’occupazione per fornire previsioni sugli eventi futuri di singoli individui.
I dati utilizzati per la fase di addestramento si riferiscono al periodo compreso tra il 2008 e il 2016. Ma gli scienziati disponevano di informazioni sui decessi fino al 2020, che hanno usato per confrontare le loro ipotesi con dati reali. L’esperimento ha dimostrato che le previsioni del modello AI risultavano precise quasi otto volte su dieci. La maggior parte degli errori era legata a infarti e incidenti. Life2vec ha stabilito che tra i fattori che aumentano il rischio di morte prematura rientrano l’essere maschio, aver ricevuto una diagnosi di un disturbo mentale e il basso reddito.
La metodologia utilizzata dal team danese ha permesso a Life2vec di ottenere un tasso di accuratezza superiore dell’11 % rispetto a quello di sistemi simili. I ricercatori affermano che la scoperta rappresenta un significativo balzo in avanti nell’analisi di dati complessi e offre potenziali applicazioni in campi quali la salute pubblica, la pianificazione sociale e la comprensione dei modelli socio-demografici.
La questione etica
Per quanto il ricorso a tecniche di modellazione per prevedere future malattie o migliorare le condizioni di vita sia lodevole, gli analisti sottolineano che questo tipo di tecnologia solleva anche problemi etici e apre alla possibilità di possibili abusi.
Youyou Wu, psicologa dell’University College di Londra, avverte che gli algoritmi possono avere un impatto negativo se sfruttati per scopi discriminatori o per prendere decisioni che influiscono sulla sicurezza sociale, personale e professionale delle persone.
Al momento sono in atto diversi sforzi per moderare l’avanzata dei sistemi di intelligenza artificiale. All’inizio di dicembre l’Unione europea ha approvato l’AI Act, la prima legge al mondo sull’intelligenza artificiale, che il blocco utilizzerà per regolamentare lo sviluppo e l’uso della tecnologia. Nel suo messaggio in vista della Giornata mondiale della pace, anche Papa Francesco si è espresso a favore della creazione di un quadro normativo, invitando i leader mondiali a definire un trattato internazionale giuridicamente vincolante sull’AI e facendo eco alle posizioni di aziende nel settore come Google e OpenAI.
Questo articolo è apparso originariamente su Wired en español.
Leggi tutto su www.wired.it
di Fernanda González www.wired.it 2023-12-22 05:40:00 ,