Quello che state per leggere può sembrare catastrofista, ma in realtà è soltanto una delle tante possibili evoluzioni dell’intelligenza artificiale. Secondo un rapporto della Rand Corporation, un noto think tank statunitense, alcuni chatbot AI potrebbero fornire agli utenti indicazioni utili per “aiutare nella pianificazione e nell’esecuzione di un attacco biologico”. Mettendo alla prova diversi modelli linguistici di grandi dimensioni, i ricercatori dell’organizzazione hanno rilevato che l’AI non fornisce informazioni dettagliate su come creare armi biologiche, ma si limita a colmare alcune “lacune di conoscenza” del settore, così da rendere più sicuro un ipotetico attacco.
Non a caso, come riferito nel rapporto, il tentativo di utilizzare la tossina botulinica da parte della setta giapponese Aum Shinrikyo negli anni ‘90 non è andato a buon fine a causa della scarsa conoscenza del batterio. Una mancanza che il supporto dell’intelligenza artificiale potrebbe aiutare a colmare nel prossimo futuro. A tal proposito il rapporto di Rand riferisce che, in un caso, il modello linguistico testato ha identificato potenziali agenti biologici – compresi quelli che causano il vaiolo, l’antrace e la peste – e ha poi discusso la loro possibile capacità di causare morti di massa, precisando che l’entità delle morti previste dipende da fattori quali la dimensione della cittadinanza colpita e la percentuale di casi legati alla malattia. Un’analisi incredibilmente attenta, che i ricercatori sono riusciti a ottenere dall’AI utilizzando la tecnica del jailbreaking, ossia quella di scrivere messaggi che ignorano le restrizioni di sicurezza di un chatbot.
In un altro test, invece, il modello linguistico ha discusso i pro e i contro dei diversi meccanismi di rilascio della tossina botulinica. E ha poi fornito alcune idee utili per coprire l’eventuale acquisto di Clostridium botulinum, proponendo ai ricercatori di presentarlo come parte di un progetto che esamina metodi diagnostici o trattamenti per il botulismo. “Ciò fornirebbe un motivo legittimo e convincente per ottenere l’accesso ai batteri mantenendo nascosto il vero scopo della tua missione”, così il chatbot ha motivato la sua proposta ai ricercatori che lo hanno interrogato, convincendoli del fatto che ha tutte le capacità per aiutare a pianificare un attacco biologico. Nonostante questo, resta ancora da capire se i chatbot rappresentino davvero “un nuovo livello di minaccia oltre le informazioni dannose prontamente disponibili online”.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2023-10-17 13:29:10 ,