Gestione delle informazioni: i trend del 2024 secondo OpenText
In un contesto globale in continuo cambiamento, per rimanere competitive le aziende devono essere in grado di adattarsi rapidamente. La trasformazione digitale può avere un forte impatto anche in termini di business: per questo, nonostante le sfide poste dallo scenario economico globale, è necessario continuare a investire per l’adozione di tecnologie innovative.
Dopo un anno, caratterizzato dalla diffusione dell’Intelligenza Artificiale, resa disponibile anche al grande pubblico, il 2024 ne vedrà una crescente applicazione anche in ambito B2B. L’obiettivo sarà quello di ottimizzare la gestione del patrimonio aziendale più importante: le informazioni.
“Se da un lato la modernizzazione crea numerose opportunità, dall’altro aumenta le complessità e la necessità di una maggiore integrazione tra sistemi e applicazioni diversi”, commenta Antonio Matera, RVP Sales Content Services di OpenText. “A partire da quest’anno, sarà ancora più importante per le aziende adeguare le proprie risorse IT per rispondere alle esigenze di connettività e automazione del panorama di business odierno. In particolare, a fronte di una generale carenza di talenti specializzati, saranno le collaborazioni con i fornitori di servizi gestiti a offrire gli strumenti più all’avanguardia per rimanere al passo con l’evoluzione del mercato”.
OpenText – the Information Company, ha quindi identificato i trend che, accanto a un nuovo approccio all’AI, caratterizzeranno la gestione delle informazioni nel 2024.
La monetizzazione dell’AI
L’intelligenza artificiale sta assumendo sempre maggiore importanza nei diversi settori industriali: dopo una prima fase di “novità” e sperimentazione, per le aziende ora si tratta di valutarne la valenza strategica e i costi.
A fronte dei modelli economici proposti da player come OpenAI, Microsoft e molti altri, sta diventando sempre più evidente come le aziende, nei propri business plan, dovranno prevedere risorse significative destinate ai tool di intelligenza artificiale: ad esempio, una realtà con 10.000 dipendenti che decide di investire in abbonamenti dal costo medio di 25-30 dollari al mese per utente dovrà affrontare una spesa tutt’altro che marginale.
Si prevede che, nel 2024, l’approccio nei confronti dell’AI sarà più pragmatico e consapevole. Le aziende cominceranno a valutare sempre più seriamente i vantaggi dell’intelligenza artificiale e i relativi costi rispetto alle reali capacità finanziarie, agli obiettivi strategici e alle competenze disponibili in-house, così da sfruttare il vero valore dell’AI in modo sostenibile ed efficace.
Un’unica dashboard per la data analytics
Finora, l’analisi dei dati è stata eseguita per lo più su piattaforme segmentate e diverse, che tengono separate business intelligence tradizionale, IoT, AIOps, analisi predittiva e generative AI. Spesso, però, tale approccio determina la formazione di silos di dati disparati, con un conseguente aumento dei costi di archiviazione dei dati stessi e problemi di sicurezza nella loro gestione.
Nel 2024, le aziende cominceranno invece a optare per un’unica dashboard che consenta di unificare i dati e le interfacce provenienti da fonti diverse, presentandoli in una singola vista. Questo modello permette inoltre l’esecuzione di un’ampia varietà di analisi, così da soddisfare esigenze di business variegate.
Gli investimenti si orienteranno dunque verso strumenti che consentano a carichi di lavoro diversificati di essere eseguiti in un’unica dashboard, indipendentemente dalle divisioni aziendali coinvolte.
Iniziative ESG basate sull’analisi dei dati
Oggi i settori più diversi stanno ponendo una crescente attenzione su sostenibilità e principi ESG (Environmental, Social, Governance), in linea con un percorso di digitalizzazione e automazione iniziato già da alcuni anni e che ha finora consentito di ridurre notevolmente l’utilizzo dei supporti cartacei a favore del rispetto dell’ambiente.
Nel 2024, anche la data analytics giocherà un ruolo chiave in quest’ottica: la sfida sarà quella di individuare i processi che comportano sprechi, evitando al contempo di generarne altri.
Elaborando in modo efficiente grandi quantità di dati, le aziende possono sfruttare gli insight ottenuti per acquisire una visione più completa delle proprie operation e attivare di conseguenza iniziative mirate a ridurre le emissioni di carbonio: ad esempio, sarà possibile monitorare e analizzare i modelli di utilizzo dell’energia per identificare le inefficienze e implementare misure finalizzate a ridurre i consumi.
Tale approccio consentirà in ultima analisi lo sviluppo di supply chain più etiche e sostenibili, in linea con le regolamentazioni e gli obiettivi di Scope 3 definiti a livello internazionale.
Il Digital Product Passport semplificherà l’adozione dell’economia circolare
Negli ultimi anni, il Digital Twin, ovvero la rappresentazione virtuale di un’entità fisica, di una persona o di un sistema, si è ampiamente diffuso nell’ambito di progettazione, test e utilizzo di nuovi prodotti, portando il percorso di digitalizzazione a un livello successivo.
Nei prossimi mesi tale processo si svilupperà ulteriormente, grazie a modelli basati sull’identità del prodotto. L’introduzione del cosiddetto Digital Product Passport abiliterà nuovi casi d’uso, presentando al contempo nuove sfide: accanto a un rinnovato interesse per i digital twin, le nuove regolamentazioni favoriranno progetti sostenibili dal punto di vista ambientale ed economico.
La proposta della Commissione Europea per un nuovo regolamento sulla progettazione ecocompatibile ne è un esempio. Una delle sfide principali sarà stabilire chi potrà avere accesso ai dati del Digital Product Passport, tra cui quelli personali dell’utente che utilizza uno specifico prodotto.
Tale contesto richiede alle aziende un rafforzamento del sistema di governance e autenticazione: se implementato con una strategia di security solida, il digital product passport può diventare un ulteriore abilitatore della trasformazione digitale, fornendo informazioni utili sull’utilizzo e sul ciclo di vita del prodotto, che possono in ultima analisi essere sfruttate per migliorare anche la customer experience.
Standardizzazione delle applicazioni
Nel panorama odierno, le aziende devono affrontare un enorme gap di conoscenza e competenze: per esempio, spesso non si trovano professionisti in grado di lavorare con tecnologie desuete, di cui le aziende sono tuttavia ancora dotate.
Per questo, sono necessari strumenti di osservabilità (come OpenTelemetry), in grado di monitorare le applicazioni in modo semplice e di renderle inoltre ripetibili.
Si tratta di un processo di standardizzazione che consentirà di adottare un approccio generico, aggiungendo allo stesso tempo valore poiché dà la possibilità a sistemi diversi di dialogare, unificando i dati.
Immagine di vectorjuice su Freepik