La scorsa settimana OpenAI ha cancellato senza troppa pubblicità dalle sue politiche di utilizzo la frase che vieta l’uso della sua tecnologia per scopi bellici. Fino allo scorso 10 gennaio, infatti, la compagnia proibiva le “attività che presentano un alto rischio di danni fisici, tra cui lo sviluppo di armi” e l’uso di ChatGpt per scopi “militari e di guerra”. Ma ora OpenAI ha eliminato questa specifica, pur preservando il divieto a non utilizzare il suo “servizio per danneggiare se stessi o altri”. Un cambiamento che ha attirato l’attenzione degli esperti del settore, dato che arriva in un momento storico alquanto particolare: da un lato il conflitto tra Israele e Hamas, e dall’altro il crescente interesse delle agenzie militari di tutto il mondo riguardo l’uso dell’AI. Nel mezzo, la necessità della società di dover gestire al meglio i suoi prodotti, evitando che qualcuno possa farne un uso sbagliato.
Allo stato attuale, però, OpenAI non sembrerebbe essere in possesso di una tecnologia che possa essere utilizzata per uccidere – né direttamente né indirettamente. Ma esistono numerose attività in cui uno strumento come ChatGpt può essere coinvolto per pianificare e portare a termine l’uccisione di qualcuno – o di più di qualcuno -. E questo la compagnia lo sa bene, considerando che ha deciso di aggiornare le proprie politiche di utilizzo al fine di renderle più chiare e leggibili. “Un principio come ‘Non danneggiare gli altri’ è ampio ma facilmente comprensibile e rilevante in numerosi contesti”, ha chiarito Niko Felix, portavoce di OpenAI a The Intercept, precisando che “qualsiasi uso della nostra tecnologia, incluso da parte dei militari, per [sviluppare] o [usare] armi, [ferire] gli altri, [distruggere] proprietà , o [impegnarsi] in attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema,’ non è consentito”.
No all’uso dell’intelligenza artificiale per lo sviluppo di armi letali, quindi. Ma sì all’impiego di questa tecnologia per tutti quei “casi d’uso legati alla sicurezza nazionale che sono in linea” con la mission della compagnia. Non a caso, di recente OpenAI ha lavorato con il DARPA – la sezione del Dipartimento della Difesa degli Stati Uniti impegnata nello sviluppo di nuove tecnologie a uso militare – per creare “nuovi strumenti di sicurezza informatica” al fine di proteggere i software open source da cui dipendono le infrastrutture critiche. Un utilizzo ben diverso, quindi, da quello della produzione di armi, nonostante rimanga nell’ambito specificatamente militare. “Non era chiaro se questi casi d’uso vantaggiosi sarebbero stati consentiti ai sensi ‘militari’ nelle nostre politiche precedenti – ha chiarito un portavoce della società –. Pertanto, l’obiettivo del nostro aggiornamento delle politiche è fornire maggiore chiarezza e rendere possibili queste discussioni”.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-01-15 12:49:49 ,