San Francisco – L’intelligenza artificiale penetra a tutti i livelli della mastodontica offerta cloud di Google. Negli ambienti e nei tool di programmazione e di sviluppo del software nonché la sua distribuzione, di analisi dei dati e di gestione dei database e infine di sicurezza. Al Google Cloud Next, l’evento dedicato all’ecosistema cloud di Big G in corso in questi giorni al Moscone Center nel cuore della metropoli californiana, il ruolo centrale ce l’ha l’intelligenza artificiale generativa. Quella di Google – diversa dall’altra soluzione, Bard, integrata nella ricerca – si chiama Duet AI. La notizia è che ogni aspetto dell’uso e della gestione dei tanti prodotti di Mountain View in questo ambito viene potenziato – e in certi casi rivoluzionato – dal suo aiuto.
- Il linguaggio naturale per generare e correggere codice
- Refactoring, migrazione dei dati e Api più semplici con Duet AI
- Kurian, ad di Google Cloud: “Più del 70% degli unicorni AI sono nostri clienti”
- Le novità per addestrare i large language model
- Duet AI partecipa alle call al posto nostro
- Potenziale solare, qualità dell’aria e pollini: ecco le Api per Maps
Il linguaggio naturale per generare e correggere codice
Prima di arrivare alle piattaforme che riguardano più da vicino gli utenti comuni – Workspace e Maps – che pure vedranno esordire Duet AI, c’è da andare in profondità nella “nuvola”. Con questo evento, infatti, Google Cloud lancia in quasi tutti i suoi tool le novità svelate all’I/O dello scorso maggio, arricchite e irrobustite da alcuni mesi di test con gli sviluppatori. Arriva così l’assistenza durante l’intero ciclo di sviluppo del software, dalla generazione di codice alla citazione di sorgenti, dai test coverage alla progettazione e la pubblicazione di Api – Application programming interface, l’insieme di definizioni e protocolli per la creazione e l’integrazione di applicazioni software – migrazione e modernizzazione delle applicazioni. Di fatto, su Google Cloud console, Cloud Workstations e Cloud Shell Editor – gli ambienti di sviluppo – gli sviluppatori possono usare il linguaggio naturale per capire codici e Api complessi, scovare una più efficace pratica di codifica, generare rapidamente test unitari e molto altro.
Refactoring, migrazione dei dati e Api più semplici con Duet AI
Non solo: l’assistente di Google sbarca anche in altri ambienti di sviluppo di terze parti come CLion, GoLand, IntelliJ, PyCharm, Rider e WebStorm. E cambierà non poco il lavoro degli sviluppatori, accorciandone radicalmente i tempi, anche quando c’è da fare refactoring di codice e la migrazione sul servizio Cloud SQL di Google, che sono ora possibili con una banale richiesta in linguaggio comune. Oppure per progettare, creare e pubblicare facilmente le Api utilizzando semplici suggerimenti in linguaggio naturale. O ancora quando l’applicazione è in fase di distribuzione: Duet AI individua e risolve i problemi monitorando le prestazioni del software. Rivoluzionaria anche l’applicazione ai database, che sono la vera miniera d’oro delle aziende anche se spesso le informazioni che se ne possono trarre in ottica di business rimangono in gran parte poco sfruttate: Duet AI per BigQuery fornisce adesso assistenza contestuale per la scrittura di SQL e Python per costruire i database, consentendo così ai team che si occupano dei dati di concentrarsi sulla logica e sui risultati. Su questo punto, sarà molto utile anche Duet AI per Cloud Spanner, con cui generare codice per strutturare, modificare o interrogare i dati utilizzando il linguaggio naturale. Mentre la soluzione per Looker permette l’analisi conversazionale dei dati ai manager che devono prendere le decisioni, la generazione automatica di presentazioni, le sintesi testuali intelligenti basate sui report e molto altro.
Quanto, infine, alla sicurezza, l’intelligenza artificiale di Google Cloud è ora integrata in Chronicle Security Operations, Mandiant Threat Intelligence e Security Command Center. Cosa ci si può fare? Per esempio, riassumere e classificare rapidamente le informazioni sulle minacce, tradurre le ricerche in linguaggio naturale in query e dunque suggerire ai responsabili della sicurezza di un database, di un servizio, di un’app o di una piattaforma come procedere per risolvere i problemi, riducendo i tempi di rilevamento e di risposta.
Kurian, ad di Google Cloud: “Più del 70% degli unicorni AI sono nostri clienti”
“Le funzionalità avanzate e le innumerevoli applicazioni che rendono l’IA generativa così rivoluzionaria richiedono infrastrutture sofisticate e performanti – ha spiegato Thomas Kurian, ad di Google Cloud, accogliendo gli oltre 25mila addetti ai lavori, partner, esperti e clienti del gruppo . Per 25 anni abbiamo investito nei nostri data center e nel nostro network e oggi disponiamo di una rete globale composta da 38 cloud region, [la prima italiana è stata aperta lo scorso anno a Milano seguita lo scorso marzo da Torino, nda] con l’obiettivo di operare interamente con energia priva di carbonio 24 ore su 24, 7 giorni su 7, entro il 2030”. Mettendo l’accento sull’altro fronte: quello dell’addestramento dell’intelligenza artificiale. “La nostra infrastruttura ottimizzata per l’IA è la soluzione ideale per l’addestramento e la gestione dei modelli di intelligenza artificiale. Infatti, più del 70% degli unicorni nel campo dell’intelligenza artificiale generativa sono clienti Google Cloud, tra cui Anthropic, Cohere, Jasper, MosaicML, Replit, Runway e Typeface; e più della metà di tutte le startup di IA generativa finanziate sono clienti di Google Cloud, tra cui aziende come Copy.ai, CoRover, Elemental Cognition, Fiddler AI, Fireworks.ai, PromptlyAI, Quora, Synthesized, Writer e molte altre”.
Le novità per addestrare i large language model
Sotto questo punto di vista, Google Cloud è sostanzialmente l’incubatrice di quasi tutte le soluzioni di IA che vengono poi messe a disposizione degli utenti. E lo sarà sempre di più grazie al lancio di alcune novità. Per esempio Cloud TPUv5e, nuova e più potente versione dell’acceleratore di intelligenza artificiale per eseguire sia l’addestramento IA su larga scala che il calcolo inferenziale. Oppure il supercomputer A3 alimentato dalla GPU H100 di Nvidia, ora disponibile per tutti i clienti, costruito appositamente con reti ad alte prestazioni e con ulteriori miglioramenti che consentono di supportare le innovazioni di IA generativa e di modelli linguistici di grandi dimensioni più esigenti. Ancora: GKE Enterprise, che consente la scalabilità orizzontale multi-cluster necessaria per i carichi di lavoro AI/ML più esigenti. Completano l’offerta Cross-Cloud Network, una rete globale per connettere e proteggere le applicazioni tra i vari cloud, e Google Distributed Cloud, progettato per soddisfare le esigenze specifiche delle organizzazioni che desiderano eseguire carichi di lavoro all’edge o nel proprio data center.
Leggi tutto su www.wired.it
di Simone Cosimi www.wired.it 2023-08-29 12:00:00 ,