For a Human-Centered AI

FBK al lavoro per soluzioni “AI compliant”

17 Aprile 2025

Presentata la nuova “Missione conformità IA”. Una sfida urgente per la nostra società, fondamentale per accompagnare con fiducia e responsabilità l’accelerazione dello sviluppo tecnologico attuale. Michela Milano, a capo del Centro di ricerca Digital Society, ha ispirato e guidato una sessione partecipativa di lavori, con un focus su aspetti metodologici e applicativi.

L’Intelligenza Artificiale (IA) sta trasformando l’Europa, come evidenziato dal regolamento AI Act (UE) 2024/1689, che riguarda l’uso responsabile dei sistemi di IA nel mercato europeo e impone diversi livelli di obblighi e conformità a seconda del tipo di sistema di IA e dei settori coinvolti.

In questo scenario dinamico, Fondazione Bruno Kessler si pone come un polo di eccellenza nell’ambito dell’IA, con una forte attenzione sull’affidabilità (Trustworthy AI) e sulla conformità (AI Compliance).

“La “Missione Conformità IA” di FBK” – commenta la prof. Milano – “nasce dall’esigenza di tradurre obblighi normativi ed etici in requisiti tecnici concreti per i sistemi di IA. L’obiettivo primario è sviluppare risorse digitali innovative che supportino progettisti e sviluppatori nella creazione di soluzioni AI “compliant by design”. Questo significa integrare i principi dell’IA affidabile e i requisiti normativi ed etici fin dalle fasi iniziali di progettazione e sviluppo.”

FBK affronta la complessità della conformità IA considerando vari aspetti: l’importanza dell’agency umana e della supervisione, la robustezza tecnica e la sicurezza, la privacy e la governance dei dati, la trasparenza (tracciabilità e spiegabilità), la diversità, la non discriminazione e l’equità, il benessere sociale e ambientale, l’accountability.

L’analisi si estende a diversi elementi come dati, algoritmi e modelli, adottando approcci sia qualitativi che quantitativi.

Un punto di forza di FBK è la ricerca avanzata per misurare quantitativamente alcune dimensioni chiave dell’IA affidabile, come equità e robustezza, e per definire metodologie di mitigazione per sistemi esistenti e approcci “compliant by design” per i nuovi.

Le applicazioni riguardano tanto i bias nella IA generativa che in altri modelli.

Vengono studiate soluzioni per affrontare e correggere i bias nei dati e nei modelli, come dimostrano i progetti nell’ambito delle risorse umane (job matchmaking), delle applicazioni sanitarie (analisi delle immagini mediche a fini diagnostici) e più in generale nella PA (ivi inclusa la gestione degli appalti e l’impiego delle risorse pubbliche), in relazione alla sostenibilità o alla cybersicurezza.

L’accesso all’educazione è un altro importante frangente in cui applicare le tecniche algoritmiche, in questo caso per scongiurare la correlazione tra disuguaglianze e mancanza di opportunità di accesso alla formazione avanzata, con implicazioni drammatiche relative al diritto allo studio e alla promozione delle condizioni per favorire la crescita dei capaci e meritevoli.

FRANCESCHINI_MICHELAMILANO_AI_-27

Nei casi in cui non è possibile avere una misura precisa, le metriche qualitative possono comunque caratterizzare lo sforzo necessario per raggiungerla. Per esempio, la spiegabilità ha un costo che può essere misurato e così possiamo selezionare gli algoritmi per ottenere la spiegabilità.

FBK è impegnata a promuovere l’adozione di queste risorse in diversi settori, tra cui la Pubblica Amministrazione, i settori industriali ad alto rischio, la sanità e l’energia.

“L’obiettivo” – aggiunge la direttrice del Centro Digital Society (Digis) – “è posizionare FBK come attore chiave nel panorama nazionale ed europeo dell’IA affidabile e della conformità IA.”

Attraverso la “Missione conformità IA”, FBK mira a rispondere alla crescente domanda di metodi e strumenti innovativi che permettano di sfruttare il potenziale trasformativo dell’IA, mitigando i rischi e allineandola a valori etici e sociali, per cogliere le opportunità emergenti e, al tempo stesso, produrre processi decisionali informati e trasparenti.

L’occasione di discussione interna a FBK è servita per aggiornare, attraverso un questionario, la mappatura delle applicazioni in FBK relative all’IA compliance. All’evento hanno partecipato una cinquantina di ricercatrici e ricercatori, provenienti non solo dal Centro Digital Society ma anche dai Centri Digital Industry, Augmented Intelligence, Digital Health & Wellbeing s e Irvapp, coinvolte/i in un’attività strutturata di brainstorming attorno a 4 tavoli di lavoro.

Tre focus group si sono concentrati su altrettanti domini di applicazione dell’AI compliance. Sono emersi così i “lavori in corso” in FBK in particolare con riferimento ad applicazioni industriali, per la PA oppure legate alla salute.

Un ultimo gruppo si è dedicato a un confronto tecnico su nodi aperti e strumenti disponibili, indipendenti dai domini applicativi, che possono essere utili per prendere in carico ad esempio esigenze di trasparenza, rispetto della privacy (GDPR) e data governance, sicurezza, diversità e non discrimanazione.

Alla realizzazione dell’attività laboratoriale hanno contribuito in qualità di esperti o facilitatori Eleonora Mencarini e Alessandro Cimatti (ambito industry), Stefano Micocci e Chiara Leonardi (ambito salute), Maurizio Napolitano e Paolo Massa (ambito PA) ed Elisa Ricci (tavolo tecnico).

Il dialogo interdisciplinare che ne è scaturito ha mostrato la ricchezza dell’expertise in FBK, non solo ricerca di eccellenza ma anche capacità di coniugare competenze etiche, normative e tecniche per costruire un futuro prossimo in cui l’IA sia pienamente al servizio dell’umanità.

 


Autore/i