OpenAi introduce nuove funzioni per la protezione dei dati degli utenti di ChatGPT. Una mossa che, benché non dichiarata, è anche un primo passo nella direzione delle richieste del Garante della privacy italiano. E di quelle che potrebbero muovere le altre autorità per la tutela delle informazioni che hanno iniziato a indagare sul potente chatbot, dal Canada alla Spagna. OpenAi ha fino al 30 aprile per adeguarsi alle prescrizioni di piazzale Venezia. E mentre scorrono le lancette del conto alla rovescia, la domanda è a quanti dei diktat del garante OpenAi sarà in grado di adempiere.
La situazione:
Modalità “incognito”
Sul suo blog, OpenAi ha annunciato alcune novità lato privacy. Primo: arriva una sorta di versione in “incognito” per gli utenti. Le persone possono “disattivare la cronologia delle chat su ChatGPT”. In sostanza, come spiegano dall’azienda, “le conversazioni che vengono iniziate quando la cronologia delle chat è disattivata non saranno utilizzate per allenare e migliorare i nostri modelli e non appariranno nella barra della cronologia”. OpenAi inizierà a rilasciare l’aggiornamento dal 25 aprile. Gli utenti potranno gestire questa funzione dall’area personale delle impostazioni. “Ci auguriamo che questo fornisca uno strumento più semplice per gestire i tuoi dati dell’attuale processo di opt-out (che prevede di indicare il rifiuto all’uso dei dati per l’allenamento degli algoritmi in modo attivo, ndr)”, spiegano da OpenAi.
In sostanza un utente potrebbe decidere che come impostazione di base non vuole salvare la cronologia delle proprie conversazioni su ChatGPT e abilitarla solo in alcuni casi. Ad ogni modo l’azienda si riserva di conservare per 30 giorni le conversazioni che avvengono quando la modalità incognito è attivata e di revisionarle solo se necessario per scoprire eventuali abusi, prima di cancellarle definitivamente.
Le altre novità
La startup guidata da Sam Altman ha annunciato altre due novità. La prima riguarda un nuovo abbonamento business per aziende o professionisti che vogliono avere un controllo ancora maggiore dei propri dati e di quelli dei loro utenti. Il nuovo ChatGPT business prevede che i dati degli utenti non siano utilizzati per allenare i modelli del chatbot. Il lancio è previsto nei prossimi mesi. L’azienda ha deciso anche di semplificare le modalità di esportazione dei propri dati, che consentono di esercitare il diritto a conoscere quali informazioni un’azienda possiede su di noi. Chi ne fa richiesta, otterrà un documento con tutte le proprie conversazioni con ChatGT e altri dati rilevanti.
A quanto apprende Wired, gli annunci di OpenAi sono stati accolti con favore dalle parti di piazzale Venezia. Il Garante della privacy li interpreta come un segnale concreto nel comporre la diatriba sulla violazione del Gdpr, scatenata dalla sospensione temporanea del trattamento dei dati degli utenti italiani imposta dall’Authority lo scorso 31 marzo e dall’immediato blocco del servizio deciso dall’azienda verso il Belpaese. Di fatto, ChatGPT è ancora inaccessibile per chi si collega dall’Italia (salvo usare una virtual private network), così come sono congelati gli abbonamenti sottoscritti.
I temi aperti
Tuttavia entro fine mese OpenAi deve occuparsi di un’altra lista di temi, se vuole ottemperare alle richieste del Garante della privacy, come la bozza di informativa sull’uso dei dati. Per l’autorità il documento deve illustrare come ChatGPT tratta i dati necessari ad addestrare l’algoritmo, come funzionano le interfacce di programmazione e quali sono i diritti degli utenti e degli interessanti che non sono iscritti al servizio e deve essere ben visibile in fase di registrazione. Poi ci sono i temi legati alla base legale dell’uso dei dati.
Se la modalità incognito elimina a monte il problema, creando un ambiente di lavoro sottratto al training dell’algoritmo, e l’esportazione delle chat consente di dare alle persone strumenti per esercitare i propri diritti e chiedere l’eventuale rettifica o cancellazione di dati, come chiede il Garante, altri aspetti sono ancora da affrontare. Resta aperto anche il capitolo under 13. l’Authority ha anche chiesto un piano entro il 31 maggio per realizzare un sistema di verifica dell’età per lasciare fuori i minori di 13 anni che non hanno il consenso dei genitori. Il sistema dovrà essere poi implementato entro il 30 settembre 2023. Wired ha chiesto un aggiornamento sull’implementazione delle regole a OpenAi, senza ottenere risposta prima della pubblicazione di questo articolo.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2023-04-26 10:41:53 ,