Dopo il blocco del trattamento dei dati da parte di ChatGPT voluto dal Garante della privacy e la conseguente sospensione del servizio decisa dalla startup che ha ideato il chatbot, OpenAi, sviluppatori e aziende che in Italia lavorano con il potente algoritmo conversazionale si sono trovati di fronte alla domanda: cosa fare ora? Davanti ci sono almeno venti giorni di stop concessi dall’Autorità garante per la protezione dei dati personali a OpenAi per mettere mano alle gestione delle informazioni di cui la startup è entrata in possesso attraverso le domande e le conversazioni degli utenti. La stessa società, che pure ha sospeso il servizio e annunciato rimborsi a chi ha sottoscritto un abbonamento a marzo, si è detta pronta a collaborare con il garante per trovare una soluzione.
Da quando OpenAi ha esposto il motore della sua intelligenza artificiale, rendendo ChatGPT disponibile per tutti, il settore ha subìto un’accelerata fortissima. Alla luce della quale i venti giorni di stop imposti in Italia pesano come un macigno. Tuttavia, il blocco del chatbot non intacca la possibilità di lavorare sullo sviluppo dell’Ai. E non solo perché, utilizzando una virtual private network (Vpn), si può tornare a fare domande a ChatGPT instradando il proprio traffico fuori dall’Italia (ma attenzione a quelle Vpn scegliete).
Il caso:
Lavorare con GPT-3
Il nome magico è GPT-3, il modello linguistico su larga scala sottostante a ChatGPT lanciato nel 2020. È GPT-3 la rete neurale che, sulla base di 175 milioni di parametri, genera parola dopo parola un testo sulla base delle istruzioni fornite. “Il blocco riguarda le interfacce consumer. Le interfacce per sviluppatori di GPT-3 non sono bloccate e sono fornite da Microsoft Azure attraverso server basati in Europa”, spiega a Wired Gianluca Maruzzella, amministratore delegato e cofondatore di Indigo.ai, startup nata nel 2016 a cinque studenti del Politecnico di Milano che sviluppa una piattaforma di intelligenza artificiale conversazionale rivolta alle aziende, per gestire il servizio clienti o semplificare alcuni processi interni.
Dobbiamo immaginare GPT-3 e ChatGPT come piani diversi di uno stesso edificio. GPT-3 è il piano terra. Sopra ci va InstructGPT, l’interfaccia di rinforzo che istruisce il modello sulla base dei riscontri che riceve dagli utenti. Più in alto ancora ci sono il livello di sicurezza, per prevenire abusi, e, sopra tutti, l’interfaccia per conversare: ChatGPT. “Quando scrivi una stringa di testo in ChatGPT, questa viaggia dentro OpenAi e là viene conservata per addestrare il modello di rinforzo”, semplifica Maruzzella. I dati personali che cediamo, anche involontariamente (“Scrivimi una recensione su Stranger Things“, per esempio, potrebbe lasciare intendere che mi piacciono le serie tv, che ho Netflix e altre informazioni potenzialmente sensibili) vengono processati, almeno per ora, solo negli Stati Uniti.
Test in corso
Altro succede con GPT-3. Il dato resta entro i confini europei, dato che Microsoft ha localizzato il servizio. Poi, spiega Maruzzella, quando un’azienda vuole integrarlo attraverso Indigo.ai nelle proprie funzioni, deve addestrarlo su specifici set di dati che possiede e di cui ha la titolarità. Un chatbot che risponde per un banca dovrà sapere che tipo di mutui offre, quello di una compagnia telefonica quali sono le tariffe o a che numero rivolgersi se c’è un guasto. “La nostra piattaforma è una ma adattiamo il servizio ai vari bisogni – spiega Maruzzella -. Abbiamo costruito noi i livelli di sicurezza e rinforzo”.
Leggi tutto su www.wired.it
di Luca Zorloni www.wired.it 2023-04-04 05:00:00 ,