E se ChatGPT iniziasse a progettare robot? Per la verità lo ha già fatto: si tratta di un braccio robotico ottimizzato per la raccolta di pomodori, che il sistema di intelligenza artificiale ha progettato insieme a un gruppo di ricercatori dell’università di Delft (Paesi Bassi) e dell’Epfl di Losanna (Svizzera). I suggerimenti del chatbot si sono rivelati, a detta degli autori dello studio, particolarmente utili nella fase concettuale della progettazione, ma anche nella successiva fase di implementazione. I risultati della ricerca sono stati pubblicati sulla rivista scientifica Nature Machine Intelligence.
Consigli utili
Quali sono le più grandi sfide future per l’umanità? È questa la prima domanda che gli autori hanno rivolto a ChatGPT all’inizio del progetto: “Volevamo che ChatGPT progettasse non un semplice robot – spiega Cosimo Della Santina, assistente di cattedra presso l’università di Delft e secondo autore dello studio – ma uno che fosse effettivamente utile”. E la scelta è ricaduta sulla raccolta di pomodori proprio perché la piattaforma di intelligenza artificiale ha suggerito che la loro coltivazione fosse fra le più convenienti da automatizzare. I suoi suggerimenti si sono quindi rivelati utili durante la fase di progettazione del robot, poiché “ChatGPT estende la conoscenza del designer ad altre aree di competenza”, come spiega Francesco Stella, studente di dottorato all’università di Delft e primo autore dello studio. Ma non solo: i consigli di ChatGPT si sono rivelati utili anche nelle fasi più pratiche del progetto. Sua è ad esempio l’idea di costruire in silicone o in gomma la pinza che raccoglierà i pomodori, per evitare che vengano schiacciati.
I rischi
La collaborazione è stata quindi giudicata piuttosto utile dai ricercatori che hanno condotto lo studio. “Tuttavia – precisa Stella – ci siamo resi conto che il nostro ruolo di ingegneri si è spostato verso l’esecuzione di compiti più tecnici”. Inoltre, sottolinea Della Santina, i risultati ottenuti dai sistemi di apprendimento automatico possono essere fuorvianti e necessitano di essere verificati e convalidati da un essere umano: “I bot di intelligenza artificiale – spiega il ricercatore – vengono progettati per generare la ‘risposta più probabile’ a una domanda, quindi esiste il rischio che portino disinformazione e pregiudizi nella robotica”. Oltre alle ben note questioni che riguardano il rischio di plagio o di violazione della proprietà intellettuale. Infine, “una questione aperta per il futuro del nostro settore – conclude Stella – è come i sistemi Llm [Large Language Model, come quello che sta alla base di ChatGPT, nda] possano essere usati per assistere gli sviluppatori di robot senza limitare creatività e innovazione necessarie affinché la robotica possa rispondere alle sfide del 21esimo secolo”.
Leggi tutto su www.wired.it
di Sara Carmignani www.wired.it 2023-06-12 12:58:57 ,