Google si fa beffa di OpenAI e anticipa il lancio di Sora, l’AI generativa dedicata alla creazione di video, con il rilascio di Veo, il modello linguistico più avanzato della compagnia di Mountain View. Annunciato per la prima volta a maggio, e ora disponibile su Vertex AI in anteprima privata, Veo è in grado di “generare senza sforzo video di alta qualità da semplici prompt di testo o immagini” in un’ampia gamma di stili cinematografici e visivi. Al pari di Sora, grazie a una “comprensione avanzata del linguaggio naturale e della semantica visiva”, anche l’AI generativa di Google è in grado di generare video estremamente realistici, che rispondono alla perfezione alle richieste degli utenti.
“La tecnologia di Veo può essere un ottimo partner per la creatività umana, consentendo ai creator di concentrarsi su compiti di livello superiore mentre l’AI può aiutare a gestire gli aspetti noiosi o ripetitivi della produzione video”, si legge nella nota di Google che accompagna il rilascio della sua nuova AI generativa, che le aziende stanno già cominciando a inserire nella loro pipeline di produzione dei contenuti. Ma non è tutto. In occasione del rilascio di Veo, il colosso tecnologico ha annunciato anche una versione aggiornata dell’AI generativa text-to-image Imagen 3. Ancora uno strumento in grado di generare immagini e video, a cui Big G aggiunge nuove funzionalità come il fotoritocco basato sul prompt di testo, o la possibilità di aggiungere loghi o prodotti nelle immagini generate.
Chiaramente, tutti i contenuti prodotti da Veo e Imagen 3 saranno corredati da una filigrana digitale invisibile che punta a “ridurre la disinformazione e le preoccupazioni di errata attribuzione“. Nel complesso, quindi, sembrerebbe che Google non si sia limitato soltanto ad anticipare OpenAI sul rilascio di un’AI generativa in grado di generare video di una qualità assimilabile a quella cinematografica, ma che abbia anche voluto dimostrarsi il supporto giusto su cui le aziende possono fare affidamento per ottimizzare le attività di produzione dei contenuti, senza incappare nella violazione del copyright.
Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2024-12-04 14:08:00 ,