Shutterstock ha segnato uno storico accordo con OpenAi, la società dietro l’ormai celeberrimo Dall-E 2, per iniziare a vendere immagini di tipo stock generate dall’intelligenza artificiale. Secondo quanto anticipato, ci sarà un accesso diretto allo performante strumento dal portale web di Shutterstock, che ha promesso di tutelare gli autori delle foto che sono servite per addestrare l’i.a. con una percentuale dei ricavi, come ricompensa per aver contribuito allo sviluppo della tecnologia. Rimane sulle proprie posizioni l’altro colosso delle foto, Getty Images, che tramite il proprio amministratore delegato ha commentato che potrebbe essere una mossa oltre il limite del regolamento.
I portali di foto stock sembrano una delle applicazioni perfette per le creazioni generate da un’intelligenza artificiale, uno strumento dalle potenzialità pressoché illimitate. I clienti si poggiano a questi immensi database per cercare una specifica immagini per accompagnare per esempio un articolo oppure una campagna pubblicitaria e utilizzano proprio una descrizione testuale come punto di partenza per la ricerca. Insomma, la stessa procedura di text-to-image già vista su Dall-E 2 e soci, per questo motivo Shutterstock si è affrettata a stringere un accordo che unisce il mondo delle foto scattate da una fotocamera nel mondo reale e quelle nate da un’i.a. L’obiettivo non è solo quello di monetizzare, ma anche di ricompensare gli autori delle immagini usate per l’addestramento del sistema, che spesso si sentono depredati delle proprie proprietà digitali.
Il servizio diventerà operativo nei prossimi mesi e Shutterstock bandirà tutte quelle immagini realizzate da altre intelligenze artificiali. E mentre Google mantiene il suo Imagen privato fino a quando non ci sarà un modo di sfruttarlo in modo del tutto lecito, il Ceo di Getty Images, Craig Peters, si è espresso sulla mossa dei rivali confermando il ban totale ai generatori e affermando che ci sono ancora troppi dettagli da chiarire e che un approccio così disinvolto potrebbe essere “Pericoloso, non responsabile e potenzialmente illecito”. Esistono metodi per verificare se le proprie foto sono state (indebitamente) utilizzate per addestrare intelligenze artificiali, ma non coprono tutti i database, quindi la zona d’ombra è piuttosto estesa.\
Leggi tutto su www.wired.it
di Diego Barbera www.wired.it 2022-10-25 15:25:53 ,