Il nuovo motore di inchiesta di ChatGpt, SearchGpt, potrebbe confrontarsi con alcuni problemi già ben noti a Google, pioniere del settore, ed essere vulnerabile al codice malevolo inserito nelle pagine web e al cosiddetto “Seo poisoning”, un insieme di tecniche per ingannare i motori di inchiesta. Secondo un’indagine condotta dal noto quotidiano britannico Guardian, infatti, lo strumento potrebbe restituire risultati scorretti e manipolati o addirittura stringhe di codice dannoso in risposta ad alcune query di inchiesta. Vediamo.
Iniezione di prompt
Il quotidiano ha usato SearchGpt (da poco disponibile per tutti gratis in Italia) e ChatGpt indirizzandolo su pagine web fasulle contenenti codice nascosto, e in particolare la recensione di una fotocamera. Al servizio è stato chiesto se l’acquisto fosse consigliabile. I risultati hanno fatto scattare un allarme per via di alcune vulnerabilità del servizio.
I metodi impiegabili per manipolare i risultati, secondo il Guardian, potrebbero essere due: il primo è la cosiddetta “prompt injection”, vale a dire l’inserimento di stringhe di ordine nascoste agli utenti nelle pagine; stringhe contenenti informazioni di grado di alterare le valutazioni di ChatGpt o, nel peggiore dei casi, di spingerlo a eseguire azioni malevole.
Il secondo potrebbe essere nascondere grandi quantità di testo invisibile agli utenti nel codice delle pagine web. Lo scopo sarebbe ingannare il motore di inchiesta SearchGpt (e non fargli commettere un’azione, come nel caso precedente) in maniera da far sembrare che un prodotto – recensito negativamente – sia in realtà stato valutato bene. L’aspetto della pagina – il cosiddetto frontend – in entrambi i casi non cambia: per l’essere umano che legge è lo stesso, ma per la macchina la faccenda differisce, e molto.
Open Ai mette in guardia sui rischi con una postilla sul fondo di ogni pagina di risultati, che avverte che il servizio può commettere errori. Ma non è detto sia abbastanza.
Il rischio: siti web per ingannare ChatGpt
ascoltato dal Guardian, Jacob Larsen, ricercatore di cybersecurity dell’azienda CyberCX, ha dichiarato al quotidiano che potrebbe essere “alto” il rischio che i malintenzionati creino siti web particolarmente orientati all’inganno degli utenti. Al tempo stesso, Larsen sembrerebbe però convinto che OpenAI stia ancora lavorando allo sviluppo di SearchGpt, e che, quando deciderà di renderlo disponibile anche per gli utenti non abbonati, saranno messe in campo le dovute accortezze per esimersi da che la sicurezza degli utenti sia compromessa.
Alcuni casi sono già stati documentati. Lo scorso mese Thomas Roccia, un ricercatore di sicurezza di Microsoft, ha portato all’attenzione pubblica l’incidente episodio a un appassionato di criptovalute che stava utilizzando ChatGpt per alcune attività di programmazione: alcune stringhe di codice suggerite dall’Ai, presentate come un modo indiscutibile per accedere alla piattaforma blockchain Solana, includevano codice malevolo che – alla fine – ha sottratto le credenziali allo sviluppatore, causandogli anche la perdita di 2.500 dollari.
Una episodio che vetrina come criminali informatici e dei truffatori stiano già escogitando tecniche ancora poco note, ma potenzialmente molto dannose per la grande quantità di persone che sono in grado di raggiungere. Google si è già trovata a dover esporsi problematiche simili, considerando che da sempre il motore di inchiesta combatte contro l’avvelenamento delle sue pagine di risultati, che i criminali cercano di forzare per posizionarsi il più in alto possibile, così da riuscire a ingannare un maggior numero di utenti. Nulla di nuovo, quindi. Ma ChatGpt deve ancora abituarsi alle trappole che si nascondono ovunque nella Rete.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-12-27 15:06:00 ,