Ancora allerta sicurezza sull’intelligenza artificiale. Secondo quanto riportato in questi giorni, l’API vocale di Gpt-4o, il nuovo modello avanzato di OpenAI, può essere utilizzata da criminali e malintenzionati per mettere a segno truffe finanziarie con tassi di successo da bassi a moderati. L’API, infatti, è progettata per gestire interazioni conversazionali in tempo reale tra un fruitore e un modello AI, il che la rende ideale per i malintenzionati che cercano una soluzione pratica per le truffe telefoniche. A dimostrarlo sono stati i ricercatori dell’università dell’Illinois Richard Fang, Dylan Bowman e Daniel Kang, che nel loro ultimo lavoro hanno messo in evidenza come i modelli AI siano privi di garanzie sufficienti per proteggere gli utenti da potenziali abusi da parte di criminali informatici e truffatori.
Nello specifico, i ricercatori hanno rivelato che Gpt-4o può essere utilizzato per truffe come trasferimenti di denaro o criptovalute, esfiltrazione di carte regalo e furto di credenziali per i social media o gli account Gmail. E che può compiere in autonomia tutte le azioni necessarie per metterle a segno. “Abbiamo impiegato i nostri agenti su un sottoinsieme di truffe comuni – ha specificato Kang in un post pubblicato sui risultati della osservazione -. Abbiamo simulato le truffe interagendo manualmente con l’agente vocale, interpretando il ruolo di una vittima credulona”. Il risultato è stato inquietante: l‘API vocale di Gpt-4o può essere utilizzata per truffe telefoniche, chiedendo al modello di fingersi il rappresentante di una banca o di un’organizzazione governativa, così da convincere i morti a condividere credenziali, dati personali e quant’altro. Insomma, esattamente quello che farebbe un truffatore comune in una delle strategie criminali che ha riscosso più successo negli anni.
Secondo quanto riportato dai ricercatori, le percentuali di successo delle truffe perpetrate dall’AI oscillano tra il 20 e il 60%, con ogni tentativo di truffa che può richiedere fino a 26 azioni del browser e durare fino a 3 minuti nei casi più complessi. Ben maggiori, invece, quelle relative al furto di credenziali da Gmail, pari al 60%. I trasferimenti di criptovalute e il furto di credenziali da Instagram, invece, hanno funzionato solo nel 40% dei casi. Nel complesso, quindi, si tratta di percentuali medio-alte, che comunque sollevano una certa preoccupazione riguardo la sicurezza di Gpt-4o e modelli simili. A questo, però, ha risposto direttamente OpenAI: “Stiamo costantemente migliorando ChatGpt nel fermare i tentativi deliberati di ingannarlo, senza perdere la sua utilità o creatività – ha dichiarato un portavoce -. Il nostro ultimo modello di ragionamento o1 è il più capace e sicuro di sempre, superando significativamente i modelli precedenti nel resistere ai tentativi deliberati di generare contenuti non sicuri”.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-11-04 12:52:00 ,