Meccanica Plus

Dati sintetici per la AI con Kurapati e Stano di Clearbox AI e BearingPointERT

I dati sintetici sono per Gartner tra le tecnologie più promettenti per il futuro, e nel 2024 il 60% dei dati impiegati in progetti di AI sarà generato sinteticamente, laddove oggi rappresentano solo l’1% di tutti i dati digitali. Il segmento dei dati sintetici è quindi previsto in crescita fino a un valore complessivo di 1,15 miliardi di dollari entro il 2027. A puntare sulla tecnologia dei dati sintetici sono in particolare Clearbox AI e BearingPoint, due realtà che collaborano per creare un sistema di intelligenza artificiale più efficiente e affidabile di quelli oggi esistenti per identificare le frodi finanziarie. A parlarne sono Shalini Kurapati, co-founder e CEO di Clearbox AI, e Piergiorgio Stano, director, head of data & analytics Italy presso BearingPoint.

“L’adozione dell’AI continua a essere in costante aumento – spiegano Shalini Kurapati e Piergiorgio Stano -: il 56% delle persone intervistate nella Global Survey 2021 di McKinsey sull’intelligenza artificiale riferisce che la propria azienda usa l’intelligenza artificiale in almeno una funzione, rispetto al 50% del 2020. Tuttavia, numerose analisi di mercato concordano che ancora nel 2022 tra il 60 e l’80% delle iniziative di intelligenza artificiale non entra in produzione. Ciò accade principalmente per problemi legati ai dati: in particolare, perché non si ha accesso alle informazioni decisive. Infatti, per alimentare e addestrare un sistema di AI servono tantissimi dati, di buona qualità e non viziati da pregiudizi”.

È chiaro anche solo da queste poche informazioni che, in un mondo in cui l’AI diventa sempre più pervasiva, trovare dati di qualità diventa una priorità. È un problema, quello dei dati, che porta con sé già la sua soluzione: se i dati veri sono difficili da reperire, scarsi, viziati da errori, non utilizzabili per motivi di privacy, parziali o alterati dai bias di chi li ha sviluppati, è allora possibile usare la stessa intelligenza artificiale per simularli.

“È qui che entrano in gioco i dati sintetici – continuano Kurapati e Stano -: trattasi di informazioni artificiali che riproducono in maniera fedele sotto il profilo matematico e statistico i dataset del mondo reale. Utili in caso di carenza, costi eccessivi, tempi stretti, limiti normativi o cattiva qualità di quelli disponibili. È solo da alcuni anni che se ne parla, ma ancora in pochi sanno come e in che occasioni vengano utilizzati”.

Diversi sono quindi i vantaggi offerti dai dati sintetici, a partire dalla semplificazione del lavoro per i data scientist. Oggi i data scientist perdono infatti l’80% del loro tempo a selezionare, ordinare e pulire i dati (Osservatorio Big Data del Politecnico di Milano). Con quelli sintetici potrebbero invertire la rotta e dedicare la maggior parte del loro tempo all’analisi vera e propria, che sta alla base della creazione degli algoritmi. “Un altro beneficio è quello di evitare di incorrere in problematiche legate alla lesione della privacy delle persone – spiegano ancora i due esperti -. Pensiamo ad esempio a un ospedale o a una clinica privata che deve fornire a una società informatica dati medici per addestrare un sistema di diagnosi del cancro basato sull’intelligenza artificiale. Con i dati sintetici, gli sviluppatori dispongono di set di informazioni di qualità da utilizzare durante la progettazione e la compilazione del sistema, senza che vengano scambiate le informazioni sensibili delle persone reali: così la rete ospedaliera non corre il rischio di mettere in pericolo la privacy dei pazienti”.

Un secondo vantaggio è quello di poter accelerare e rafforzare lo sviluppo dei modelli di intelligenza artificiale: la raccolta dei dati dal mondo reale può richiedere molto tempo perché le informazioni devono essere abbondanti, devono anche essere selezionate, classificate, elaborate e sottoposte a controlli di conformità. Con i dati sintetici, l’intero processo si accorcia perché si possono creare sin da subito dei dati puliti, ordinati e conformi.

“I dati sintetici permettono inoltre di simulare scenari futuri: uno dei problemi dei dati reali è che sono storici, permettono di valutare solo eventi già accaduti e possono quindi diventare obsoleti – aggiungono Kurapati e Stano -. Per esempio, il Covid ha impattato in maniera rilevante le abitudini delle persone: pensiamo agli spostamenti in auto per andare a lavoro, con il relativo formarsi di code in città o ai caselli. L’utilizzo estensivo del remote working ha cambiato pesantemente i flussi di veicoli sulle strade, così tutti i dati storici relativi agli spostamenti delle persone hanno perso una parte significativa del loro valore predittivo“.

I dati sintetici possono essere utili anche per testare se le intelligenze artificiali hanno dei pregiudizi (o bias): se può sembrare strano che una ‘macchina’ possa avere un pregiudizio, bisogna ricordare che i sistemi di AI imparano immagazzinando grandi quantità di informazioni. Ma i dati storici possono essere viziati da pregiudizi sociali del tempo a cui si riferiscono. Testare le intelligenze artificiali con i dati sintetici può invece aiutare a identificare e neutralizzare tali pregiudizi nascosti e potenzialmente fuorvianti.

La tecnologia dei dati sintetici può quindi essere applicata a tutti quei campi che necessitano di molti dati per migliorare i propri processi, dal mondo finanziario a quello delle assicurazioni, dall’energia alle telecomunicazioni, dalla mobilità urbana al retail.

“Sono già parecchie le grandi aziende che utilizzano i dati sintetici – spiegano infine i due responsabili -. John Deere, per esempio, impiega foto sintetiche per addestrare le proprie AI a riconoscere le piante infestanti in condizioni atmosferiche non ottimali. Amazon ricorre ai dati sintetici per il training di sistema di riconoscimento del linguaggio di Alexa. American Express, invece, impiega tali dati ai fini del riconoscimento delle transazioni fraudolente. Molte società del settore automotive stanno iniziando a utilizzarli per addestrare i sistemi di guida autonoma. È infine notizia recente un progetto che ha vinto un finanziamento della Commissione Europea nell’ambito del programma Horizon Europe e punta a sviluppare nuovi sistemi di analisi dati nell’ambito delle malattie ematologiche. Il progetto si chiama Synthema e usa tecniche innovative basate sull’intelligenza artificiale per rendere anonime le informazioni cliniche e biologiche dei pazienti e generare dati sintetici, nel rispetto delle norme sulla privacy, per superare la scarsità e la frammentazione delle informazioni disponibili oggi per la ricerca, in modo conforme al GDPR (General Data Protection Regulation)”.

I dati sintetici, infine, arrivano fino nel Metaverso che richiede simulazioni virtuali in 3D di ambienti di gioco, sociali e aziendali: qui i dati sintetici possono colmare alcune lacune per creare impostazioni e oggetti realistici.