
Una guida per l’adozione etica di strumenti IA a sostegno della PA
Come si progetta una Intelligenza Artificiale etica? AI Ethics Canvas, prodotto all’interno del progetto AIxPA (intelligenza artificiale per la pubblica amministrazione) della Provincia autonoma di Trento in collaborazione con FBK offre una risposta pratica basata su un solido percorso di ricerca interdisciplinare condotto dall’unità Digital Commons Lab che vede fra i suoi protagonisti Riccardo Nanni. Lo strumento si presenta come un percorso di domande a cui un gruppo di lavoro con competenze diverse fra loro risponde nel progettare un servizio basato su AI per la Pubblica Amministrazione. Il Canvas Ethics IA aiuta così a bilanciare i vincoli dei funzionari e le esigenze dei cittadini, fornendo un metodo chiaro per affrontare queste sfide ed è reso disponibile a chiunque per il download.
L’applicazione dell’intelligenza artificiale (AI) alle PA promette di accelerare i processi burocratici e di fornire ai funzionari strumenti per elaborare soluzioni sempre più specifiche orientate alle esigenze dei cittadini.
Da un lato, un’aspettativa comune è quella di avere uno strumento in accelerazione. Dall’altro lato, è necessario rallentare per garantire che gli esseri umani possano supervisionare e assumersi la responsabilità di soluzioni assistite dalle macchine.
L’attenzione del valore etico nel prendere una decisione che sia corretta è da sempre una scelta importante che richiede di elaborare molte informazioni e di avere le giuste competenze.
Su questo aspetto in Europa abbiamo un forte senso di responsabilità che spinge costantemente a elaborare regolamentazioni importanti.
Non ultima è quella dell’AI Act il regolamento europeo, approvato poco più di un anno fa, che disciplina l’intelligenza artificiale in Europa e fra i cui obbiettivi rientrano la prevenzione e mitigazione dei rischi dell’IA, vietando o limitando l’uso di sistemi che presentino un rischio inaccettabile per la sicurezza, la salute, la dignità o l’autonomia delle persone, o che violino i valori democratici.
Questa attenzione alle implicazioni etiche dello sviluppo tecnologico non è mai mancata fra i ricercatori di FBK che, da sempre, si occupano di IA. Ed é così che la questione di una progettazione di un servizio che venga incontro a queste sfide è stata messa al centro nel progetto AIxPA, guidato dall’unità di missione strategica digitalizzazione e reti della Provincia autonoma di Trento (PaT) nell’ambito del Progetto Bandiera – Intelligenza artificiale nel sistema della PA (PNC A.1.3 “Digitalizzazione della Pubblica Amministrazione della Provincia Autonoma di Trento” – CUP: C49G22001020001) – che introduce l’uso dell’IA nella PA.
Si è così da subito partiti alla creazione di un percorso di ricerca fatto di co-progettazione che ha coinvolto numerose persone della ricerca di FBK vicino a funzionari della PA trentina.
A seguito di diversi incontri che hanno coinvolto molte unità di FBK (in particolare quella di I3 e DCL) si è passati alla definizione di indicazioni per la progettazione di una AI etica.
Dalla definizione delle indicazioni, il gruppo del Digital Commons Lab, ha così ideato uno strumento semplice ed efficace per aiutare a definire i requisiti necessari a chi poi il servizio lo dovrà implementare.
Si tratta di una serie di fogli che contengono numerose domande a cui rispondere ciascuno con le proprie competenze. Ogni foglio di lavoro si focalizza su alcuni passaggi necessari che riguardano l’intera filiera della creazione di un servizio: dall’analisi dei dati utilizzati fino alla definizione di indicazioni per la comunicazione e formazione orientata internamente alla PA e ai cittadini, passando per una serie di passaggi cruciali come la scelta dei metodi di analisi e gli algoritmi.
A elaborare questo strumento che ha preso il nome di AI Ethics Canvas sono stati Riccardo Nanni, Pietro Bizzaro, Munazza Usmani, Maurizio Napolitano e Albana Calepija.
Un prodotto nato da un’attenta analisi, principalmente condotta da Riccardo (postdoc in scienze politiche), sui vari quadri etici e legali utilizzati in Italia e nel mondo per affrontare le problematiche relative. Il lavoro ha ricevuto poi supporto da parte di Pietro Bizzaro (PhD student di FBK in computer science con una laurea in giurisprudenza), che ha contribuito con la sua esperienza nelle questioni legali legate alla tecnologia, Munazza Usmani (postdoc in GeoAI) per la parte sui modelli e Maurizio Napolitano (capo dell’unità DCL) sul tema dati.
Il risultato è uno strumento che mancava, capace di aiutare i decisori della PA a orientarsi e a configurare l’adozione etica e consapevole dell’IA dentro processi e servizi di nuova generazione.
Il processo iterativo di co-progettazione
Lo scenario d’uso del canvas vede un gruppo di persone che si confrontano fra di loro sul tema della creazione di un servizio che rispetti le persone.
Al tavolo siedono tutte quelle persone che devono occuparsi della creazione del servizio e del suo riuso verso i cittadini offrendo ciascuna le proprie competenze e rispondendo all’insieme delle domande presenti su ciascun foglio.
Il canvas è attualmente in fase di ulteriore sviluppo e validazione. Pur essendo orientato all’uso da parte della PaT, è applicabile a tutte le PA che desiderano adottare l’IA nella loro operatività.
Il download è comunque disponibile su github e relativo sito.
Vincoli etici: dai quesiti di fondo al design
Quando l’uso di un nuovo servizio deve essere guidato da una PA è fondamentale che questa si ponga una serie di domande più approfondite rispetto a quello che invece può accadere nel privato.
Ci riferiamo in particolare alla tutela della privacy, alla non discriminazione degli utenti e alla equa distribuzione. Ad esempio, una tecnologia che avesse per scopo la gestione dei flussi informativi utili per l’erogazione di bonus, sussidi o la possibilità di usufruire di servizi a tariffe azzerate o agevolate in base al reddito o alla categoria di appartenenza, dovrebbe necessariamente accedere ai dati personali o aziendali richiesti per verificare la fattispecie e calcolare se e quanto spetta all’impresa in questione o ai cittadini che richiedono il beneficio.
Ciò implica la necessità di stabilire dei paletti per mantenere un equilibrio tra aspetti chiave da tenere in considerazione fin dal principio quando si pianifica una nuova attività che dovrà impiegare sistemi evoluti di IA.
Domande aperte, forme e colori
La creazione di canvas – uno schema piuttosto diffuso nell’ambito del design – serve come scorciatoia cognitiva per avere un quadro d’insieme di un fenomeno complesso e poter scomporre la definizione del macro obiettivo in parti fra loro coordinate. Ognuna di esse è corredata inoltre da domande guida che aiutano chi compila lo strumento grafico a ragionare sulle scelte, le implicazioni e gli obiettivi specifici che si concatenano nel flusso di attività coinvolto.
Analogamente, in questo caso il macro obiettivo è guidare le PA nell’impostazione dei processi decisionali prima di adottare una nuova soluzione basata sull’impiego di IA, e le domande per ogni casella del Canvas sono state costruite in dialogo con gli interlocutori della PAT, per ascoltarne le esigenze e informarli sulle caratteristiche delle loro scelte di pianificazione.
AI Ethics Canvas è corredato da indicazioni pratiche per la sua compilazione e da un glossario per definire gli aspetti chiave. Una pratica legenda rammenta che a ciascun colore di sfondo è abbinato un destinatario. È così che possiamo distinguere a colpo d’occhio AI scientist: (ricerca e sviluppa i sistemi AI e può essere esterno all’ente), AI engineer (allena, implementa, mantiene i sistemi AI) e AI user (chi usa i sistemi AI sul lavoro – ad es. assessori o funzionari).
I cinque passi
Gli elementi che compongono l’analisi complessiva sono in tutto cinque (perciò sono cinque anche i fogli che compongono il canvas) e per ognuno di essi AI Ethics Canvas propone uno strumento grafico che accompagna gradualmente gli utilizzatori in un percorso che procede dal generale al particolare.
Il primo passo è relativo ai dati. Chi sono gli attori coinvolti? Quali pregiudizi (o meglio “bias” nel gergo di chi lavora nel settore) scontiamo nella loro raccolta? Quali precauzioni possiamo adottare per proteggerli? Come li monitoriamo?
Si prosegue con la definizione degli algoritmi: quale scopo avranno? Che tipo di strumento andremo a costruire? I dati di addestramento del modello IA contengono dei bias? Gli output algoritmici sono interpretabili?
Il passaggio centrale riguarda i metodi di analisi, ossia la capacità di interpretare l’esito che il sistema di IA ci fornirà una volta che lo avremo interrogato e avrà lavorato sui dati forniti. In particolare, chi si assumerà la responsabilità di prevenire discriminazioni e assicurare la privacy e la protezione del Copyright? Quali altri aspetti considerare?
Infine, ma non per importanza, si giunge alle due schede che riguardano il contesto e i requisiti tecnici. Con la descrizione degli elementi socio-culturali si prendono in esame i fattori determinanti per il successo dell’iniziativa, perché si descrive come progettare un’adeguata comunicazione affinché l’iniziativa stessa sia compresa e recepita come utile, ossia rispondente ai bisogni degli utenti. L’ultimo passo raccoglie e condensa nelle specifiche di progettazione informatica dello strumento di IA tutte le considerazioni emerse nei passi precedenti: dai principi tecnici e socio-culturali ai vincoli di design.
Disponibile e rilasciato con licenza cc by sa 4.0 international
Il progetto, frutto di uno scambio proficuo fra il gruppo di ricercatori e gli esponenti della PAT ingaggiati, ha permesso di conseguire al contempo due risultati: un’attività di capacity building a beneficio dei funzionari che si sono attivati; e uno strumento operativo ora nella disponibilità di chiunque all’interno della PA, ovunque in Italia e in Europa, stia considerando ad esempio l’adozione di un chatbot basato su LLM, di sistemi predittivi o di altre soluzioni basate su IA. Il tool ricavato è utilizzabile e modificabile a partire dalle esigenze concrete della singola PA che lo adotti. Anche questo contribuisce a dimostrare l’impegno quotidiano di FBK “For a Human-Centered AI”.
Quanto elaborato ha poi una sua validazione scientifica presentata nell’articolo “AI Ethics Canvas: A graphical tool to design and deploy ethical artificial intelligence for public administrations. The experience of the Autonomous Province of Trento, Italy” – che vede oltre ai già citati RICCARDO NANNI, Pietro Giovanni Bizzaro, Munazza Usmani e Maurizio Napolitano anche Albana Celepija.
In particolare il contributo di Albana Celepija è quello di individuare come i risultati del “brainstorming” che deriva dall’AI Ethics Canvas diventano poi componenti software da integrare nel servizio a garanzia che i vincoli etici e giuridici individuati siano rispettati.
P.S.: una curiosità per chiunque se lo stesse chiedendo: non è stata utilizzata l’IA generativa per la stesura di questo articolo nonché dell’articolo scientifico presentato. Il lavoro fa parte del “Progetto Bandiera – PNC (Piano Nazionale per gli investimenti Complementari) – “AI data: Intelligenza artificiale nel sistema della PA”, CUP C49G22001020001. Flagship Project – PNC (Piano Nazionale per gli investimenti Complementari) – ‘AI data: Artificial Intelligence in the Public Administration’” CUP C49G22001020001. Responsabile: PAT, con FBK “leading implementation partner”.