Aggirare queste difese però non è un’impresa particolarmente difficile: ChatGpt è in grado di programmare e scrivere email, e può essere indotto a produrre qualcosa di simile a un malware senza saperlo. Ci sono già segnali che mostrano come i criminali informatici sono già al lavoro per eludere le misure di sicurezza adottate dal chatbot.
Senza volersi accanire su ChatGpt, è importante sottolineare cosa è possibile fare quando i modelli linguistici di grandi dimensioni (Llm) come quello di OpenAi vengono utilizzati per scopi dolosi. Non è difficile immaginare che in un prossimo futuro le organizzazioni criminali sviluppino i propri Llm e strumenti simili per rendere più efficaci le loro truffe. E non si tratta solo di testi: nonostante siano più difficili da realizzare, i deepfake di audio e video sono già in circolazione.
Alcune tra le potenziali truffe più comuni – dal vostro capo che vi chiede una relazione urgente, al tecnico dell’azienda per cui lavorate che vi dice di installare una patch di sicurezza, passando per una banca che segnala un problema da risolvere – si basano sulla fiducia e sulla capacità di sembrare autentiche. Quest’ultimo, in particolare, è un aspetto in cui i bot Ai sono molto bravi. Questi sistemi possono produrre testi, audio o video apparentemente naturali e tagliati su misura per un pubblico specifico, per di più in modo rapido e a comando.
Di fronte all’ondata delle nuove minacce alimentate dall’Ai, noi semplici esseri umani siamo quindi spacciati? L’unica opzione è arrendersi e accettare il nostro destino? Non proprio. Esistono dei metodi per ridurre al minimo le possibilità di essere truffati dalla tecnologia, che non sono poi così diversi dalle precauzioni che – in teoria – dovreste già adottare.
Gli accorgimenti per tutelarsi
Ci sono due tipi di minacce di sicurezza legate all’intelligenza artificiale contro cui stare in guardia. La prima riguarda i casi in cui strumenti come ChatGpt o Midjourney vengono utilizzati per farvi installare qualcosa che non dovreste, come un plugin per il browser. Potreste essere indotti a pagare un servizio che superfluo, oppure a utilizzare uno strumento che sembra autentico ma non lo è.
Per evitare di cadere in queste trappole, il consiglio è quello di rimanere aggiornati sugli sviluppi intorno ai servizi di Ai e riferirsi sempre alla fonte originale. ChatGpt, per esempio, esiste solo come versione web e non ha un’applicazione mobile approvata ufficialmente. Quando si lavora con queste app e i loro derivati valgono le solite regole: informatevi sulla storia dei servizi e date un’occhiate alle recensioni e alle aziende che le hanno create, proprio come fareste quando installate un nuovo software.
Leggi tutto su www.wired.it
di David Nield www.wired.it 2023-04-21 04:50:00 ,