In questo esatto momento il vostro corpo sta generando circa 11 milioni di bit di dati al secondo, che corrispondono circa a 1,3 MB; questo perché ogni azione genera dati, e ogni nostra decisione è frutto dell’analisi di questi dati.
Esattamente come succede per un organismo vivente, anche ogni operazione di un’applicazione genera dati. Richieste, risposte, errori, avvisi, status: così agiscono i servizi e l’infrastruttura che forniscono e proteggono un’applicazione. Se facessimo un semplice confronto, scopriremmo che la media per effettuare il login a un’applicazione è di 1 KB e che la quantità di telemetria generata da una sola interazione di un’applicazione è più di quanto il nostro cervello possa assorbire ed elaborare, ovvero, secondo gli scienziati, circa 50-60 bit al secondo.
Qui arriva però la parte interessante: l’essere umano non deve elaborare consapevolmente tutti i dati che il corpo genera, ma ha a disposizione una serie di “aiutanti” interni che elaborano e agiscono per suo conto, e lo fanno in maniera completamente autonoma: non devi pensare a respirare, a costringere il tuo cuore a battere, così come non decidi improvvisamente di avere fame. Qualche sistema interno nascosto ti avverte di tutto questo perché dispone dei suoi preziosi aiutanti.
Se torniamo al mondo dell’IT e alla telemetria, potremo osservare continuamente le richieste che provengono da questi “aiutanti” dal punto di vista della diagnostica, delle analytics, delle prestazioni e dei dati.
Ogni provider di tecnologia sfrutta tutti i dati che può ottenere per migliorare e ottimizzare i propri prodotti. Il business non dovrebbe quindi essere da meno. In particolare, per il business digitale, il principale prodotto è la customer experience e c’è sempre bisogno di dati che consentano di capire come e quando poterla scalare, ottimizzare e, naturalmente, renderla sicura.
Proprio come succede per il corpo umano, non ci aspettiamo che un’applicazione produca e analizzi tutti i dati necessari a ottimizzare e proteggere l’esperienza digitale. Ci aspettiamo piuttosto che ci siano delle componenti di supporto che raccolgano, analizzino e istruiscano i sistemi a farlo per l’applicazione. In questo contesto, il mercato è d’accordo sul fatto che quelle maggiormente indispensabili oggi siano le tecnologie per la sicurezza delle applicazioni e la delivery.
Perché la telemetria è importante
Le analytics sono, agli occhi di tutti, una vera e propria stella nascente della tecnologia. Rappresentano il punto focale per tutto, dall’AI e la sicurezza alla gestione del proprio portafoglio di applicazioni. Riconoscendo quindi la loro importanza, quest’anno ci siamo posti molte domande sui dati, su come vengono utilizzati e su che cosa effettivamente mancasse al mercato, scoprendo che ciò che scarseggia, ahimè, non è poco!
Gli intervistati che hanno partecipato al nostro sondaggio “The State of Application Strategy 2021” hanno riferito che a essere insufficienti sono proprio quegli insight in grado di supportarli nell’identificare le cause principali del degrado delle performance (49%), degli incidenti che causano interruzioni (51%) e dei possibili attacchi (45%). Eppure, il 59% ci ha anche raccontato di avere a disposizione gli strumenti necessari per monitorare la salute e lo stato delle proprie applicazioni.
Il punto è che questo scollamento non è causato da una mancanza di strumenti o di dati, ma da una mancanza di elaborazione analitica che vada oltre la semplice visibilità per offrire informazioni e, in definitiva, una reale comprensione. Infatti, mentre quasi tutti gli strumenti forniscono la visibilità sui data point informandoci dello stato di un’applicazione, generalmente non abbiamo a disposizione quegli strumenti necessari ad andare maggiormente in profondità e che ci rendono note, ad esempio, la causa principale o le anomalie che indicano un potenziale attacco.
L’importanza attribuita alla telemetria è stata sottolineata nelle risposte di tutti gli intervistati, ma abbiamo notato che era particolarmente sentita rispetto ad obiettivi operativi di service-level (SLO) piuttosto che quale supporto per raggiungere i risultati di business. Sospettiamo, quindi, che l’attenzione rivolta alle metriche tradizionali sia sostanzialmente l’enfasi sulla misurazione dell’efficacia dell’IT e delle operazioni basata su metriche individuali e, potremmo aggiungere, binarie.
L’importanza di misurare ciò che realmente conta: i risultati di business
Quello che deve cambiare è, in sostanza, ciò che misuriamo. La disponibilità di una data applicazione, per esempio, potrebbe avere un impatto sull’esperienza del cliente, ma potrebbe anche non averlo. Le metodologie moderne come Agile e DevOps e le pratiche SRE sono in parte guidate dall’aspettativa che i componenti falliscano.
La capacità di compensare è quindi automaticamente incorporata nelle applicazioni moderne e nelle tecnologie che le forniscono e le proteggono, ma questo principio chiave non è stato ancora pienamente adottato dall’IT, dai team delle operation e, stando ai risultati della nostra analisi, nemmeno dai responsabili aziendali.
Le persone, infatti, lavorano avendo ben presente ciò su cui verranno misurate e se i loro responsabili stanno misurando l’efficienza organizzativa basandosi su metriche tradizionali, allora quelle metriche guideranno anche le loro priorità.
Questo è abbastanza preoccupante considerando il significativo passaggio alla modernizzazione che stiamo vivendo e che ha portato l’attenzione a spostarsi necessariamente dalle applicazioni ai flussi di lavoro, dalle interfacce utente alle esperienze utente. La misurazione più efficace dell’esperienza utente non è quindi legata alle metriche binarie per la disponibilità o le prestazioni, ma ai risultati di business. Le metriche operative tradizionali, se aggregate e analizzate, possono certamente fornire gli insight necessari per soddisfare gli obiettivi del business, ma, da sole, sono poco più che notifiche e allarmi che possono indicare o meno un problema reale.
Purtroppo, molte organizzazioni non stanno monitorando nemmeno la salute e lo stato dei componenti che utilizzano proprio per modernizzare le applicazioni core business. Quasi un quarto (24%) ci ha riferito che non tiene traccia dei SLA per i componenti moderni, ovvero proprio quelli destinati a creare le user experience di oggi. Questi componenti – di solito app mobile e native container – rappresentano di fatto la prima impressione che un utente ha di un brand. Io stessa penso di aver usato alcune di queste applicazioni e di averle cancellate…
Altre organizzazioni, invece, stanno monitorando le metriche dei componenti che dovremmo aspettarci, come: il tempo di risposta (62% degli intervistati) affidabilità (60%) o disponibilità (59%).
In conclusione, grazie ai risultati della nuova ricerca di quest’anno, abbiamo preso coscienza di due insegnamenti fondamentali. Primo: la telemetria che arriva dai nostri “aiutanti” – ovvero la sicurezza delle applicazioni e le tecnologie di delivery – è una componente fondamentale di come IT e business misurano il proprio successo. Secondo: le organizzazioni riconoscono che gli strumenti che hanno a disposizione non stanno svelando gli insight più strategici di cui il business e l’IT hanno bisogno per offrire esperienze digitali straordinarie.
Conclusione: le analytics devono evolvere insieme al business
La trasformazione digitale non è altro che il viaggio del proprio business accompagnato dall’evoluzione tecnologica. Il business e l’IT, quindi, devono percorrere lo stesso cammino verso la digitalizzazione e, per arrivare a destinazione – ovvero al business assistito dall’AI del domani – è necessaria una partnership tra entrambe le squadre. Questa collaborazione includerà necessariamente l’allineamento sulle analytics e la capacità di spostare il focus strategico delle metriche operative ai risultati di business.
Fonte: Lori MacVittie, Principal Technical Evangelist, Office of the CTO di F5