È una lotta tra gatto e topo, tra attaccanti, attaccati e chi cerca di gestire la sicurezza. Ci sono due leve attuali che stanno creando problemi crescenti, secondo Pulvermueller: “Da un lato le aziende devono digitalizzare sempre di più per diventare più efficienti ed efficaci, ma così ovviamente aumenta la loro superficie attaccabile. Dall’altro, il lavoro ibrido post-pandemia è molto complesso dal punto di vista della gestione tecnica. Paradossalmente era più facile gestire il solo lavoro da dimora durante i lockdown“.
In tutto questo gioca un ruolo anche la scarsità di talenti: secondo gli analisti negli Usa mancano due milioni di tecnici esperti di cybersicurezza. In Europa ancora di più. “E ancora – dice – non abbiamo visto niente rispetto all’intelligenza artificiale“. Le AI sono utilizzate da tempo per la gestione e difesa delle reti e dei sistemi complessi: le reti neurali vengono addestrate a capire se ci sono comportamenti non normali anche senza che ci sia una “impronta” predefinita. Con attacchi sempre diversi è finita l’epoca dei immunizzazioni contro i virus, che usavano campioni del software malevolo per riconoscere le nuove infezioni nei sistemi e bloccarli. Adesso, al posto degli antivirus occorre utilizzare approcci comportamentali, che permettono di estrarre dal “rumore” di milioni e milioni di segnali di un sistema quelli che creano un pattern utile a indicare un potenziale pericolo.
Dal lato degli attaccanti, però, sta arrivando un uso diverso delle AI, sulla falsariga di quello che si sta vedendo con ChatGPT: “Le AI vengono usate per impersonare, per esempio, l’amministratore delegato di un’azienda, e truffare il suo responsabile finanza convincendolo con messaggi fake a fare un trasferimento di soldi verso un conto truffaldino“. L’attacco di questo tipo prevede una preparazione tutto sommato relativamente facile: la violazione delle mail o dei messaggi del bersagli. La AI viene addestrata in modo rapido: non deve sostenere conversazioni complesse ma semplicemente scrivere in stile credibile a proposito di business. E poi si usa il chatbot che impersona il ceo sulla base delle informazioni raccolte per truffare qualcun altro. È più difficile del phishing, è più personale, “fatto su misura” ed efficace in maniera micidiale.
“Si possono fare deepfake della voce o del video, ma non hanno senso: è molto complicato e facile sbagliare e farsi scoprire. Invece, gli attacchi seguono sempre la strada del costo più basso e della massima efficienza: mail, WhatsApp e sms. L’unico modo per difendersi è autenticare le comunicazioni usando un altro canale, per esempio una chiamata in voce“. Pulvermueller ricorda che comunque l’AI si può usare in modo più creativo anche per difendersi: il software sviluppato dall’azienda studia e impara i comportamenti di base nell’uso del computer, analizzando la frequenza, la forza e la velocità di scrittura sulla tastiera, in modo tale da capire, senza bisogno di password o altre forme di riconoscimenti, chi sta usando il computer il proprietario o no.
Leggi tutto su www.wired.it
di Antonio Dini www.wired.it 2023-03-11 05:40:00 ,