di Will Knight
Nick Frosst, cofondatore di Cohere ed ex collaboratore di Google nel settore dell’intelligenza artificiale, condivide la sensazione che una strategia basata sulla crescita delle dimensioni dei modelli linguistici non funzionerà per sempre. Come Altman, anche Frosst ritiene che i progressi sui cosiddetti transformer, il tipo di modello di apprendimento automatico alla base di Gpt-4 e dei suoi rivali, vadano oltre la scalabilità: “Ci sono molti modi per rendere i transformer molto, molto migliori e più utili, e parecchi di questi non comportano l’aggiunta di parametri al modello“, spiega,…
Source link
www.wired.it
2023-04-19 04:30:00