La recente, seconda ondata pandemica che sta travolgendo l’Italia in questi giorni sta nuovamente portando alla luce quanto i dati stiano diventando sempre più importanti per prendere decisioni strategiche. Senza i dati siamo letteralmente ciechi, con i dati possiamo capire cosa sta succedendo. Non stupisce quindi che l’analisi del rischio di tracollo dei sistemi sanitari locali sia basata, ad oggi, sull’analisi dell’andamento di tutta una serie di dati fondamentali, come la velocità di trasmissione del contagio, il numero di posti occupati in terapia intensiva, e così via. Il problema è che questi dati vanno raccolti, raffinati, messi assieme, aggregati, trasformati. Come nelle ricette di pasticceria, ognuno di questi passaggi va effettuato con grande cura, attenzione e precisione: un singolo errore può pregiudicare il risultato finale. Altrettanto importante è assicurarsi la qualità della materia prima: dati grezzi che non rappresentano fedelmente la realtà porteranno, alla fine della catena, a prendere decisioni sbagliate. Per i tecnici informatici che si occupano di gestire e analizzare i dati, questo fenomeno è noto con il temine “spazzatura in ingresso, spazzatura in uscita”. Si tratta di un tema apparentemente banale, che però viene fin troppo spesso dimenticato: si parla sempre della “quantità” dei dati (i famosi “big data”), senza enfatizzare l’importanza della “qualità” dei dati. Le cronache recenti sul Covid-19 in Italia stanno, in modo drammatico, portando alla luce proprio questo tema: si parla di “dati che arrivano in ritardo”, di “buchi nei dati”, di “difficoltà nel comunicare i dati”, e così via. Ma come mai è così difficile “muovere” questi dati in modo corretto, in una società che ha a disposizione le più moderne e sofisticate tecnologie per la memorizzazione e l’integrazione dei dati? La risposta sta nel fatto che siamo sempre di più “in rete”, ma ancora non in grado di “fare rete”. E questa incapacità di coordinarsi collettivamente si trasporta purtroppo nei nostri sistemi informatici: invece di avere pochi sistemi capaci di scambiarsi direttamente dati “parlando la stessa lingua”, ci troviamo con migliaia di software diversi, isolati l’uno dall’altro, e che raccolgono dati con formati molto diversi. In questo contesto, ogni trasferimento da un sistema all’altro richiede che altri software, o l’uomo stesso, facciano da “traduttori”, con tutti i ritardi e gli errori che ne conseguono. Le tecnologie per risolvere questi problemi ci sono, sta a noi rimboccarci le maniche e smontare pezzo per pezzo questa torre di Babele.
Autore: Marco Montali