Secondo Open Fiber, il futuro dell’information technology è legato all’edge computing, ovvero nella possibilità di disporre localmente di tutta la potenza di elaborazione del dato in base a singole esigenze, invece che affidarsi a grandi infrastrutture lontane. Questa è la chiave per comprendere Pesco (pervasive communications), un progetto avviato nel biennio 2022-2023 sotto l’egida dell’Unione Europea e coordinato dal Consiglio Nazionale delle Ricerche (Cnr) – in seno al programma Restart (Research and innovation on future telecommunications systems and networks, to make Italy more smart), finanziato con le risorse del Pnrr.
Gianluigi Pezzuco, IoT security solution engineer di Open Fiber, spiega a Wired che lo scopo “è introdurre nuove tecnologie e algoritmi per il processamento dei dati, finalizzati al miglioramento delle comunicazioni tra i dispositivi all’edge della rete e all’ottimizzazione delle loro performance”. Open Fiber è infatti la realtà industriale di punta del progetto, coadiuvata dalla rete delle università di Bologna, Firenze, Padova, Pisa, Trento, Messina, della Campania “Luigi Vanvitelli” e il Consorzio nazionale interuniversitario per le telecomunicazioni (Cnit).
Decentralizzare con l’edge computing
Il tema di fondo è che con l’edge computing, ovvero l’elaborazione situata vicino ai luoghi dove si generato i dati, la prospettiva è di poter migliorare le prestazioni, l’efficienza e la sicurezza. E nello specifico si parla proprio di spostare l’elaborazione dei dati dal cuore della rete verso i dispositivi mobili o in generale i dispositivi degli utenti finali che si trovano ai confini della rete. Con applicazioni che potrebbero andare dall’espianto industriale dotato di infrastruttura iot per il monitoraggio di ogni processo, alla piccola impresa logistica. Pezzuco cita come potenziale soluzione proprio i Data Edger di Open Fiber: “un’infrastruttura di micro-datacenter innovativa in termini di spazi occupati, di risorse energetiche ed economiche richieste per la sua realizzazione”.
Verrebbe da chiedersi se vi sia davvero bisogno di una nuova tecnologia di questo tipo, quando normalmente ci si affida a cloud computing o comunque a servizi basati su datacenter di grandi dimensioni lontani che ospitano mainframe e server farm. La risposta, secondo Domenico Palmiero, service layer network engineer di Open Fiber, è che con i Data Edger si usano risorse già in campo con conseguente risparmio in costi di realizzazione e manutenzione infrastrutturali, senza contare la diminuzione dei consumi e dell’impatto sull’ambiente. E poi c’è il tema della sicurezza relativa al trattamento dei dati. “Perché non sono più centralizzati e localizzati in un luogo specifico lontano dall’fruitore finale, ma distribuiti su un numero di dispositivi (vicini agli utenti) in modo frammentato e pertanto più difficili da intercettare e ricostruire”, spiega l’ingegnere.
Leggi tutto su www.wired.it
di Dario d’Elia www.wired.it 2024-10-07 12:46:56 ,