“ChatGPT non può fidarsi dei plugin – afferma Rehberger –, e fondamentalmente non può fidarsi di quello che torna indietro da questi plugin, perché potrebbe essere qualsiasi cosa“. Attraverso un plugin, per esempio, un sito web o un documento dannoso potrebbero tentare di eseguire un attacco di prompt injection contro un Llm. Ma potrebbe anche diffondere payload dannosi, continua Rehberger.
Secondo il ricercatore, i dati potrebbero essere rubati anche attraverso la falsificazione delle richieste tra plugin diversi: un sito web potrebbe nascondere un prompt injection che induce ChatGPT ad aprire un altro plugin ed eseguire azioni aggiuntive. I ricercatori chiamano questo fenomeno “concatenamento”.
Da quando sono stati lanciati a marzo, i plugin di ChatGpt sono rimasti in versione beta, in sostanza una prima versione sperimentale. ChatGPT spiega che gli utenti dovrebbero essere certi di potersi fidare di un plugin prima di utilizzarlo, e che per farlo funzionare ChatGPT potrebbe dover inviare le conversazioni e altri dati al plugin.
Il portavoce di OpenAI Niko Felix afferma che l’azienda sta lavorando per rafforzare ChatGPT nei confronti degli “exploit” che possono portare ad abusi del sistema. Attualmente la società esamina i plugin prima di inserirli nel suo store. In un post pubblicato sul blog aziendale a giugno, OpenAI ha scritto di aver trovato ricerche che mostrano come “dati non attendibili provenienti dall’output di uno strumento possono istruire il modello a eseguire azioni indesiderate”. L’azienda ha anche detto di aver incoraggiato gli sviluppatori a inserire pulsanti di conferma prima che azioni con un “impatto sul mondo reale“, come l’invio di un’email, vengano eseguite da ChatGPT.
A differenza di quanto avviene sugli app store di Apple e Google, la libreria di ChatGPT attualmente non sembra indicare gli sviluppatori dietro un plugin né fornire informazioni su come questi possano utilizzare i dati raccolti. Secondo le indicazioni di OpenAI, gli sviluppatori devono seguire le sue linee guida sui contenuti e fornire un file che includa tra le altre cose informazioni di contatto dei creatori del plugin. Quando si cerca e si attiva un plugin all’interno di ChatGPT, vengono mostrati solo il nome, una breve descrizione e il logo (un sito web di terze parti non affiliato mostra maggiori informazioni).
Questione di fiducia
Quando OpenAI ha lanciato i plugin a marzo, i ricercatori hanno subito messo in guardia dai potenziali rischi per la sicurezza e dalle implicazioni della connessione di GPT-4 al web. Tuttavia, i problemi dei plugin non si limitano a OpenAI e ChatGPT. Rischi simili riguardano qualsiasi Llm o sistema di Ai generativa collegato al web. È possibile che i plugin rivesteranno un ruolo importante nel modo in cui le persone utilizzeranno gli Llm in futuro. Microsoft, che ha investito molto in OpenAI, ha dichiarato che utilizzerà gli stessi standard di ChatGPT per la creazione di plugin . “Penso che alla fine ci sarà un ecosistema incredibilmente ricco di plugin“, ha dichiarato a maggio Kevin Scott, direttore tecnico della società.
Leggi tutto su www.wired.it
di Matt Burgess www.wired.it 2023-07-27 04:40:00 ,