L’Intelligenza Artificiale nelle campagne elettorali: Google Introduce Nuove Regole

L’Intelligenza Artificiale nelle campagne elettorali: Google Introduce Nuove Regole

L’Intelligenza Artificiale nelle campagne elettorali: Google Introduce Nuove Regole

L’ascesa dell’intelligenza artificiale (IA) sta lasciando un’impronta significativa nella politica e nelle elezioni. La diffusione di questa tecnologia innovativa, che facilita la creazione di immagini e contenuti falsi, solleva preoccupazioni legate all’aumento della disinformazione nelle prossime campagne elettorali. In risposta a questa sfida, Google ha annunciato che richiederà presto agli inserzionisti politici sulle sue piattaforme di dichiarare quando immagini, audio o testi sono stati generati dall’IA.

Il contesto globale è rilevante, poiché nel 2024 oltre due miliardi di persone voteranno in più di 50 elezioni in tutto il mondo, tra cui quelle negli Stati Uniti, in India e nell’Unione Europea. Questa situazione ha spinto i social network a prendere misure di tutela, mentre le istituzioni politiche stanno monitorando da vicino la situazione. Tuttavia, alcuni recenti esempi di fake news create con l’uso dell’intelligenza artificiale hanno dimostrato come l’interferenza dell’IA nella politica rappresenti una nuova sfida da affrontare nei risultati elettorali.

Google ha annunciato nuove regole che richiederanno agli annunci politici sulle sue piattaforme di informare chiaramente quando immagini e audio sono stati creati con l’uso dell’IA. Questa mossa è stata motivata dalla “crescente diffusione di strumenti che producono contenuti sintetici”, ha dichiarato un portavoce di Google alla BBC. Questo cambiamento entrerà in vigore a novembre, circa un anno prima delle prossime elezioni presidenziali negli Stati Uniti e delle elezioni europee del giugno 2024.

Alphabet, la società madre di Google, ha già politiche pubblicitarie che vietano la manipolazione dei media digitali al fine di ingannare o fuorviare le persone su questioni politiche, sociali o di interesse pubblico. Con l’aggiunta di queste nuove regole, gli annunci legati alle elezioni dovranno chiaramente indicare se contengono contenuti sintetici che raffigurano persone o eventi reali o realistici. Google suggerisce l’uso di etichette e watermark come “questa immagine non raffigura eventi reali” o “questo video è stato generato sinteticamente” per segnalare i post creati con l’IA. L’azienda ha inoltre dichiarato che continuerà a investire in tecnologia per rilevare e rimuovere tali contenuti dal suo motore di ricerca e da YouTube.

L’azione di Google potrebbe esercitare una pressione significativa su altre piattaforme online affinché seguano l’esempio. Meta, la società di Facebook e Instagram, sebbene non abbia ancora regole specifiche per gli annunci politici generati dall’IA, già limita l’uso di audio e immagini falsificate per scopi di disinformazione. TikTok, d’altra parte, non permette annunci politici, ma consente deepfake di personaggi pubblici per scopi artistici o educativi. Al momento, X (precedentemente noto come Twitter) non ha rilasciato dichiarazioni in merito, ma sembra essere particolarmente esposto ai rischi legati all’IA.

Questi sviluppi dimostrano quanto sia importante affrontare la sfida dell’IA nella politica e nelle elezioni. La tecnologia sta rapidamente trasformando il panorama informativo, e le nuove regole e le misure di controllo sono fondamentali per garantire elezioni libere e informate in tutto il mondo. Tuttavia, rimane il fatto che anche se la tecnologia è utilizzata in modo trasparente, essa può comunque essere utilizzata per diffondere la disinformazione, sottolineando l’importanza di una vigilanza costante in questo settore in rapida evoluzione.

Previous Unity: Le Controversie sulle Modifiche Contrattuali e il Rischio per la Comunità degli Sviluppatori di videogiochi

Leave Your Comment