Tre elementi essenziali per il futuro dell’edge computing
Di tutti gli sviluppi dell’infrastruttura IT previsti per i prossimi anni, uno dei più dirompenti sarà probabilmente l’adozione diffusa dell’edge computing, il modello che vede le organizzazioni portare le risorse di calcolo e di archiviazione fuori dal data center e più vicino ai luoghi in cui i dati sono generati. Entro il 2022, si stima che ci saranno 55 miliardi di dispositivi edge sul mercato e, entro il 2025, si prevede che questo numero crescerà fino a raggiungere i 150 miliardi.
Con la crescente quantità di dati che le aziende e le imprese detengono nei loro sistemi cloud, insieme all’adozione di flussi di lavoro fortemente data-intensive derivanti dall’adozione di AI e 5G, molte aziende si trovano ad affrontare una significativa pressione per passare al modello edge. Eppure, come per la maggior parte delle iniziative di trasformazione digitale, anche una transizione edge, per essere efficace, richiede alcuni prerequisiti.
Gli elementi a cui le organizzazioni devono prestare particolare attenzione per evitare inconvenienti nel loro percorso verso l’edge sono tre: standard costruiti su tecnologie aperte, uso del cloud ibrido e una particolare attenzione alla scalabilità fin dall’inizio.
Standardizzazione su tecnologie aperte
Di base, l’edge computing si fonda su apparati geograficamente lontani che sono in grado di parlare senza soluzione di continuità l’uno con l’altro. Può trattarsi di nodi di calcolo o di archiviazione che parlano tra loro, o di nodi che parlano con sensori o macchinari che raccolgono o agiscono sui dati di una rete edge; l’infrastruttura edge dipende proprio dal fatto che queste tecnologie siano in grado di interagire in modo affidabile.
La distanza geografica ha anche portato a una tendenza alla diversità degli apparati. Che si tratti di disponibilità da parte dei fornitori o degli adattamenti necessari per il contesto locale, l’infrastruttura edge più efficiente sarà quella in grado di ospitare tecnologie diverse. In pratica, le pressioni del mercato per adattarsi a questa configurazione sono spesso inevitabili per molti grandi operatori di reti edge, specialmente per quelli che vogliono evitare ogni possibile lock-in.
Perché una rete edge varia e distribuita possa funzionare, le organizzazioni devono adottare tecnologie aperte. Creare standard per software e hardware open source per assicurare che possano interagire tramite soluzioni open source è in definitiva l’unico modo per garantire che ogni componente in una rete edge diversificata e distribuita possa interagire con le sue controparti.
Fare uso del cloud ibrido
Nella realtà, una rete edge sufficientemente estesa sarà un insieme di molti carichi di lavoro diversi che operano in concerto tra loro. Tra le altre cose, ci si può aspettare che l’infrastruttura edge esegua macchine virtuali, container e nodi bare-metal che svolgono funzioni di rete e, con carichi di lavoro particolarmente intensivi di dati come quelli per l’Intelligenza Artificiale, che richiedono architetture di microservizi, l’edge computing deve essere in grado di conciliare tali compiti complessi con carichi di lavoro più tradizionali e di routine.
È qui che l’hybrid cloud diventa essenziale per il paradigma dell’edge computing: l’implementazione di un cloud ibrido crea una base comune per un sistema edge, che a sua volta permette ai team di gestire migliaia di dispositivi in rete proprio come farebbero con un server centralizzato. Inoltre, la varietà intrinseca di un’architettura hybrid cloud aiuta anche le organizzazioni a evitare lo spettro del vendor lock-in.
Attenzione alla scalabilità
Uno dei principali punti di forza dell’edge computing è la sua capacità di scalare – sia geograficamente, sia in termini di carichi di lavoro gestiti.
L’adozione di standard aperti e di un’infrastruttura cloud ibrida sono premesse fondamentali per consentire all’edge di scalare, in modo da accogliere nuovi carichi di lavoro e sistemi senza intoppi, ma al contempo le organizzazioni devono anche assicurarsi che la loro infrastruttura edge sia creata con l’intento di scalare.
Questo significa che le architetture e le risorse dovrebbero essere strutturate e pianificate per accogliere le nuove tecnologie, e che dovrebbero essere in grado di riconoscere, affrontare e mitigare le inevitabili sfide che sorgeranno quando si fa crescere una rete.
Un esempio positivo di questo approccio è la pianificazione della sicurezza: definire in anticipo la struttura di un sistema di permessi è sempre molto più facile che non dover sostituire una struttura ad-hoc, non adatta allo scopo.
Il valore aggiunto dato dall’edge è destinato a cambiare le carte in tavola per molte organizzazioni, consentendo alle tecnologie e alle applicazioni di prossima generazione di fornire enormi prestazioni e vantaggi sociali. Adottando tecnologie open, abbracciando il cloud ibrido e pianificando la scalabilità fin dall’inizio, il futuro dell’edge computing può mantenere queste promesse, massimizzando anche la qualità della vita per il team, rendendo l’edge allo stesso tempo resiliente e scalabile.
Pre-sales Manager – UK&I Commercial vertical, Red Hat