ITA 50

2024 \ 35 UOMO | SOSTENIBILITÀ | AI | AUTOMAZIONE AVANZATA I dubbi sull’Intelligenza Artificiale derivano prin- cipalmente dalla sua complessità, dalla poten- zialità di un suo uso improprio, ma anche dai suoi impatti economici e sociali. Tuttavia, con una regolamentazione adeguata e lo sviluppo di pratiche etiche e trasparenti, molti di questi ti- mori potrebbero essere mitigati. Per questo so- no state prese iniziative in Europa, Cina e Stati Uniti, talvolta con approcci diversi, per formulare normative in grado di dare una regolamentazio- ne a questa tecnologia. L’Unione Europea è stata particolarmente pro- attiva nello stabilire un quadro normativo per l’AI. Nel marzo 2024 il Parlamento ha infatti adottato le regolamentazioni sull’Intelligenza Ar- tificiale seguito dall’approvazione del Consiglio nel mese di maggio 2024. Sarà pienamente applicabile 24 mesi dopo l’en- trata in vigore, tuttavia, alcune delle sue parti saranno applicabili già da prima: il divieto per i sistemi di AI che presentano rischi inaccettabili sarà applicabile sei mesi dopo l’entrata in vigo- re; i codici di pratica si applicheranno nove mesi dopo l’entrata in vigore; le regole sui sistemi di AI a uso generale, tenuti a rispettare i requisiti di trasparenza, si applicheranno dodici me- si dopo l’entrata in vigore. Per i sistemi ad alto rischio verrà fornito più tempo per conformarsi ai requisiti poiché gli obblighi che li riguardano diventeranno applicabili 36 mesi dopo l’entrata in vigore. Questo regolamento mira a creare uno stan- dard per lo sviluppo, la vendita e l’uso dell’AI all’interno degli Stati membri dell’UE, basandosi su un approccio basato sul rischio. Ciò significa che le applicazioni di AI sono classificate in base al livello di rischio che presentano, da inaccetta- bile a minimo, e regolate di conseguenza. APPROCCIO BASATO SUL RISCHIO Seguendo un approccio ‘basato sul rischio’, in base al quale tanto maggiore è il rischio, quanto più rigorose sono le regole, la nuova disciplina stabilisce obblighi per fornitori e operatori dei sistemi di AI a seconda del livello di rischio che l’Intelligenza Artificiale può generare: un rischio inaccettabile; un rischio alto; un rischio basso o minimo. Sono stabiliti anche obblighi specifici per la trasparenza. Saranno vietati i sistemi di AI che determinano un rischio inaccettabile per la sicurezza, i mezzi di sussistenza e i diritti delle persone. In questa categoria rientrano i siste- mi che possono manipolare il comportamento umano come quelli che consentono di attribu- ire un ‘punteggio sociale’ (social scoring), per finalità pubbliche e private, classificando le per- sone in base al loro comportamento sociale o alle loro caratteristiche personali, e determinate applicazioni di polizia predittiva. Saranno quindi vietati i sistemi di sfruttamento delle vulnerabilità delle persone e di utilizzo di tecniche subliminali ovvero deliberatamente manipolative o ingan- nevoli; i sistemi di categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per dedurne o desumerne la razza, le opinioni politiche, l’appartenenza sindacale, le convin- zioni religiose o filosofiche, la vita sessuale o l’orientamento sessuale (sarà ancora possibile filtrare set di dati basandosi su dati biometrici OBIETTIVO DELL’AI ACT Con questa iniziativa l’Unione Europea intende creare un quadro normativo armonizzato e proporzionato per l’Intelligenza Artificiale EUROPA, CINA E STATI UNITI HANNO ADOTTATO NORMATIVE PER REGOLAMENTARE L’USO DELL’INTELLIGENZA ARTIFICIALE. LA COMMISSIONE EUROPEA HA APPROVATO L’AI ACT. LA CINA HA GIÀ IMPLEMENTATO REGOLAMENTAZIONI IN TEMA DI AI GENERATIVA. NEGLI STATI UNITI L’APPROCCIO È ANCORA FRAMMENTATO, ANCHE SE L’EXECUTIVE ORDER 2023 SI PROPONE DI STABILIRE UN COORDINAMENTO A LIVELLO FEDERALE ANTONELLA PELLEGRINI

RkJQdWJsaXNoZXIy Mzg4NjYz