Sul palco del Consumer Electronics Show di Las Vegas, l’amministratore delegato di Nvidia Jensen Huang ha sfoggiato la sua nuova giacca in pelle sottolineando come i chip per l’intelligenza artificiale di oggi siano mille volte migliori di quelli che progettava dieci anni fa.
Il keynote più atteso del Ces 2025 ha visto l’annuncio della nuova famiglia di Gpu, Rtx Blackwell, il cui pezzo forte è Rtx 5090, equipaggiata con 92 miliardi di transistor. Huang ha dichiarato che “Blackwell, il motore dell’AI, è la più significativa innovazione nella grafica computerizzata da 25 anni a questa parte”. E come se l’hype non avesse raggiunto ancora il suo apice, per la compagnia che ad oggi ha un market cap di 3,27 trilioni di dollari, ha aggiunto “i nostri sistemi stanno progredendo molto più velocemente della legge di Moore”. Per descrivere la traiettoria a cui stiamo assistendo Huang ha usato l’espressione “hyper Moore’s Law”.
Cos’è legge di Moore
Per chi non la conoscesse, quella di Gordon Moore, cofondatore di Intel nel 1968, era una previsione basata sull’osservazione empirica che il numero di componenti elettronici di un chip sarebbe raddoppiato con cadenza annuale. L’ipotesi si confermò corretta nei primi dieci anni, e dal 1975 è stata poi periodicamente rivista col passare del tempo. Negli anni ‘80 è stata poi modificata – sono oggi 18 i mesi in cui il raddoppio del numero dei transistor deve avvenire – diventando l’obiettivo ed allo stesso tempo la misura del successo di aziende come Nvidia, o della sua concorrente Amd.
In un contesto in cui la quantità di transistor, e quindi la loro dimensione, sono proporzionali alla capacità di calcolo di un dato prodotto, come è stato a lungo il caso per le Gpu, questo ha determinato una continua scalabilità del business grazie alla diminuzione dei costi, oltre a un’innovazione tecnologica che sembrava destinata a crescere esponenzialmente senza fine. Non a caso, Nvidia produce schede madri e unità di elaborazione grafica (Gpu) usate per l’attuale intelligenza artificiale generativa, un altro settore caratterizzato da un hype colossale, che a sua volta ha aumentato enormemente il valore dell’azienda di Huang. La legge di Moore viene infatti utilizzata anche per quantificare il progresso nella capacità di calcolo e di qualità dell’output dell’AI.
La fase dei rendimenti decrescenti
Le dichiarazioni di Huang però non sono solo l’ultimo esempio dei proclami di un amministratore delegato dell’industria del tech, ma una risposta a chi, come Ilya Sutskever, cofondatore di OpenAI e figura di spicco dell’AI contemporanea, sostiene che siamo entrati nella fase di rendimenti decrescenti – l’antitesi dei rendimenti di scala che ha contraddistinto il settore tecnologico e dell’intelligenza artificiale in particolare.
“Gli anni 2010 sono stati l’era della scalabilità, ora siamo tornati nell’era della meraviglia e della scoperta. Tutti sono alla inchiesta della prossima novità”. ha dichiarato poco tempo fa Sutskever, facendo tremare le gambe agli investitori di OpenAI e simili. Siamo quindi in prossimità alla soglia dei rendimenti decrescenti, che secondo l’economista Ricardo porterebbe a una proporzione peggiorativa tra scontro e rendimento in un sistema vantaggioso. Questa tesi è piuttosto diffusa tra i critici dell’hype che circonda l’AI e secondo alcuni esperti trova evidenze empiriche in diversi aspetti che non collimano con la legge di Moore.
Leggi tutto su www.wired.it
di Roberto Pizzato www.wired.it 2025-01-26 06:00:00 ,