OpenAI ha aggiornato le politiche di utilizzo dei suoi strumenti per proibire agli utenti di utilizzare ChatGPT, Dall-E e gli altri modelli di intelligenza artificiale generativa dell’azienda per produrre contenuti legati a campagne elettorale e attività di lobbying. La società ora vieta esplicitamente anche la progettazione di bot che impersonino candidati o funzionari governativi e la creazione di iniziative di comunicazione mirate a scoraggiare il voto o falsificare dati.
Le recenti modifiche delle condizioni d’uso – che tra le altre cose ora consentono di usare ChatGPT per scopi militari – fa parte della strategia adottata dall’azienda di Sam Altman per moderare l’impatto dell’AI nelle varie elezioni che si terranno nei prossimi mesi in giro per il mondo. L’iniziativa prevede anche l’incorporazione di credenziali digitali approvate dalla Coalition for content provenance and authenticity (C2PA), un meccanismo finalizzato a facilitare l’identificazione di materiali prodotti o modificati dall’intelligenza artificiale.
Le iniziative di OpenAI per tutelare il voto
Il nuovo metodo sarà implementato all’inizio di quest’anno. OpenAI ha già iniziato a testarlo internamente, con “primi risultati promettenti, anche nei casi in cui le immagini sono state soggette a comuni modifiche. Abbiamo in programma di renderlo presto disponibile al nostro primo gruppo di tester, che comprende giornalisti, piattaforme e ricercatori”, spiega l’azienda in post pubblicato sul suo blog. Il sistema di C2PA è già adottato da grandi società come Microsoft, Amazon, Adobe e Getty.
OpenAI promette inoltre che ChatGPT attingerà da fonti attendibili per ottenere in tempo reale informazioni sulle elezioni. Il chatbot mostrerà i link alle fonti nei suoi risultati, in modo da garantire la trasparenza dei contenuti forniti agli utenti. Nel caso di domande sulle presidenziali statunitensi, per esempio, ChatGPT indirizzerà automaticamente a CanIVote.org, un portale web che offre informazioni elettorali autorevoli e affidabili.
La società riporta che nel mercato statunitense sta collaborando con la National association of secretaries of state (Nass), un’organizzazione professionale apartitica americana che mette insieme funzionari pubblici con l’obiettivo di definire degli standard che garantiscano la legalità delle pratiche democratiche. “La trasparenza sull’origine delle informazioni e l’equilibrio nelle fonti delle notizie possono aiutare gli elettori a valutare meglio le informazioni e a decidere da soli di cosa fidarsi”, si legge nel post dell’azienda.
Leggi tutto su www.wired.it
di Fernanda González www.wired.it 2024-01-17 12:16:16 ,