Grok si differenzia da altri popolari generatori di immagini AI perché consente di creare foto false di personaggi politici. All’inizio di quest’anno, Midjourney ha iniziato a vietare ai suoi utenti di generare immagini di Trump e del presidente Joe Biden (la decisione è arrivata dopo la pubblicazione di un rapporto del Center for countering digital hate, in cui si sosteneva che lo strumento poteva essere utilizzato per realizzare contenuti a sfondo politico).
Nei test condotti da Wired US, anche ChatGPT di OpenAI e Gemini di Google si sono rifiutati di produrre immagini di Harris o Trump. A fare da contraltare alle limitazioni imposte da questi sistemi, ci sono però alcuni generatori AI open source che come Grok producono liberamente immagini di politici. Wired US ha scoperto che un altro di questi modelli, Stable Diffusion, non realizza illustrazioni eccellenti di Harris.
Un questione di fonti e narrazioni
I generatori di immagini AI moderni utilizzano i cosiddetti modelli di diffusione per generare immagini a partire da richieste testuali. Questi servizi vengono alimentati da migliaia di immagini, in genere prelevate dal web o raccolte da altre fonti. Joaquin Cuenca Abela, amministratore delegato di Freepik, un’azienda che ospita vari strumenti di intelligenza artificiale, spiega che la difficoltà nell’eternare Harris è dovuta al fatto che questi generatori hanno ricevuto in pasto un numero subalterno di immagini etichettate in modo accurato.
Nonostante sia una figura di spicco, la candidata Dem non è stato fotografata quanto Trump. Una studio sull’archivio fotografico di Getty Images ha restituito 63.295 immagini di Harris contro le 561.778 dell’ex presidente. Dato il suo ingresso relativamente recente nella campagna elettorale, l’attuale vicepresidente è da considerare come “una celebrità nuova” nell’ottica dei generatori di immagini AI, spiega Cuenca Abela. “Ci vuole sempre qualche mese per recuperare“, aggiunge l’ad di Freepik.
Ma potrebbe c’entrare anche il fatto che Harris sia una sposa nera, di origini giamaicane e indiane. Irene Solaiman, responsabile delle politiche globali dell’azienda di AI Hugging Face, afferma che “il peggiore riconoscimento facciale per le tonalità di pelle più scure e i tratti femminili” potrebbe influire sulla selezione delle immagini di Harris per l’etichettatura automatica. Le difficoltà della tecnologia a identificare i volti femminili e quelli con la pelle più scura è stato evidenziato per la prima volta dallo studio Gender shades, pubblicato nel 2018 dalla ricercatrice del Mit Joy Boulamwini e dall’ex Google Timnit Gebru, che ora dirige il Distributed artificial intelligence research institute.
Leggi tutto su www.wired.it
di Will Knight www.wired.it 2024-09-12 05:00:00 ,