Il governo degli Stati Uniti ha raggiunto un accordo con i principali sviluppatori di intelligenza artificiale – tra cui Amazon, Google, Meta, Microsoft e OpenAi –, che li impegna a intraprendere azioni per evitare che nel mondo vengano diffusi modelli di Ai dannosi.
In base all’accordo, che la dimora Bianca definisce un “impegno volontario“, queste aziende si impegnano a eseguire dei test interni e ad autorizzare verifiche esterne dei nuovi modelli di Ai prima che vengano lanciati al pubblico. I test cercheranno di individuare possibili problemi, come risultati distorti o discriminatori, falle di sicurezza e rischi di danni più ampi per la società. Hanno aderito all’accordo anche le startup Anthropic e Inflection, che hanno sviluppato dei sistemi rivali di ChatGPT.
L’intesa con la dimora Bianca
“Le aziende hanno il dovere di garantire che i loro prodotti siano sicuri prima di introdurli al pubblico, testando la sicurezza e la capacità dei loro sistemi di Ai”, ha dichiarato il 21 luglio durante un briefing Ben Buchanan, consigliere speciale della dimora Bianca per l’Ai. I rischi a cui le aziende sono state invitate a prestare attenzione includono le violazioni della privacy e addirittura contributi alle minacce biologiche. Le società inoltre si sono impegnate a comunicare pubblicamente i limiti dei loro sistemi e i possibili rischi per la sicurezza e la società.
L’intese prevede anche che le aziende sviluppino una filigrana digitale, o watermark, che consentano di identificare con facilità i contenuti audio e le immagini generate dall’Ai. OpenAI aggiunge già dei watermark alle immagini prodotte dal suo generatore di immagini Dall-E mentre Google ha dichiarato che sta sviluppando una tecnologia simile per le immagini generate dall’intelligenza artificiale. Negli Stati Uniti in particolare, aiutare le persone a distinguere ciò che è vero da ciò che è falso è un tema sempre più sentito, dal momento che i comitati elettorali sembrano già rivolgersi all’Ai generativa in vista delle elezioni presidenziali del 2024.
I recenti progressi dei sistemi di Ai generativa in grado di creare testo o immagini hanno innescato una nuova corsa all’oro nel campo dell’intelligenza artificiale tra le aziende che cercano di adattare la tecnologia a compiti come la ricerca sul web e la scrittura. Ma i nuovi algoritmi hanno anche suscitato una nuova preoccupazione per il rischio che l’Ai rafforzi sistemi sociali oppressivi come il sessismo o il razzismo, favorisca la disinformazione elettorale o diventi uno strumento al servizio dei cybercriminali. Di conseguenza, le autorità di regolamentazione e i legislatori in molte parti del mondo, tra cui Washington, hanno aumentato le richieste di nuove norme, tra cui l’obbligo di valutare i sistemi di Ai prima della loro diffusione.
Il ruolo dei test
Non è chiaro quanto il nuovo accordo cambierà il modo di operare delle principali aziende di Ai. La crescente consapevolezza dei potenziali svantaggi della tecnologia ha portato molte di queste società ad assumere personale che lavori alle norme e ai test dell’Ai. Google ha team deputato a verificare i suoi sistemi e rendere pubbliche alcune informazioni, come i casi d’uso previsti e le considerazioni etiche per alcuni modelli di IA. Meta e OpenAI a volte invitano esperti esterni a provare ad aggirare i loro modelli, con un approccio nome come red teaming.
Leggi tutto su www.wired.it
di Khari Johnson www.wired.it 2023-07-25 04:40:00 ,