AI Act: una guida al primo regolamento europeo sull’Intelligenza Artificiale
Esplorare l’equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali
L’Unione Europea si impegna a sfruttare il potenziale trasformativo dell’intelligenza artificiale affrontandone al contempo i rischi associati. In linea con la sua strategia digitale, l’UE ha introdotto l’AI Act, un atto normativo che si concentra sull’identificazione e la mitigazione dei rischi, adottando un approccio basato sulla qualità e sulla trasparenza.
Il Prof. Carlo Casonato e la Dr.ssa Giulia Olivato della Facoltà di Giurisprudenza dell’Università di Trento hanno tenuto un webinar il 17 dicembre organizzato da FBK Academy in collaborazione con Jean Monnet Chair (T4F – Training for the Future). Durante l’evento hanno illustrato la logica e la struttura del regolamento e, in una video intervista, hanno risposto a domande chiave. Insieme agli interventi di Alessandro Sperduti, direttore del Centro Augmented Intelligence, e Paolo Traverso, responsabile della Pianificazione strategica di FBK, hanno offerto un’analisi approfondita delle implicazioni pratiche dell’AI Act.
Quali sono i punti chiave dell’AI Act introdotto dall’UE?
“Molti sono i temi trattati dall’AI Act, il punto chiave è l’approccio basato sul rischio: l’Unione Europea ha deciso di non dividere l’Intelligenza Artificiale sulla base dei settori in cui si potrebbe andare ad applicarla – per esempio in medicina, agricoltura, giustizia e nella pubblica amministrazione – ma ha deciso di fare una normativa comprensiva e basata sul rischio. Questo significa che i sistemi sono divisi in base alla quota di rischio che hanno nei confronti della società, dei diritti fondamentali e delle democrazie.L’Unione Europea ha identificato alcuni sistemi che rappresentano un rischio ritenuto inaccettabile e che saranno vietati a partire da febbraio 2025. Altri sistemi, invece, presentano minori problemi di trasparenza. In questi casi, è fondamentale garantire che le persone sappiano se stanno interagendo con un essere umano o con una macchina, oppure se un articolo o un video è stato creato da un’intelligenza artificiale o riproduce un’immagine reale. Una parte significativa dei sistemi rientrerà nella categoria ad alto rischio, su cui l’AI Act concentra gran parte delle sue disposizioni. Questi sistemi offrono enormi potenzialità, ma presentano anche rischi che si intende mitigare attraverso specifici requisiti. Il primo requisito riguarda l’utilizzo di dataset il più possibile privi di errori e rappresentativi della realtà. Il secondo è la trasparenza: è essenziale che chi utilizza l’intelligenza artificiale sia in grado di spiegare la logica che ha portato l’AI a generare un determinato output. Infine, un requisito cruciale per i sistemi ad alto rischio è la “sorveglianza umana”: deve esserci sempre una persona responsabile delle decisioni prese da questi sistemi”, risponde il Prof. Carlo Casonato, della Facoltà di Giurisprudenza dell’Università di Trento.
Come bilanciare protezione dei diritti e promozione tecnologica?
“Il bilanciamento tra la promozione dei diritti fondamentali e il mantenimento dell’innovazione tecnologica è uno degli aspetti centrali dell’AI Act, in particolare per quanto riguarda l’identificazione e la mitigazione dei rischi. Una delle sfide principali sarà applicare una normativa concepita in modo orizzontale, quindi valida per tutti i settori, a specifiche applicazioni pratiche. Ragionare in termini di diritti fondamentali in modo troppo astratto rischia infatti di compromettere la concretezza necessaria per valutare l’impatto, sia positivo che negativo, che questi sistemi possono avere sulla società e sull’economia. È importante sottolineare che l’AI Act pone grande attenzione all’intera catena del valore, la cosiddetta value chain. Poiché il rischio è il concetto cardine del regolamento, l’AI Act prevede due disposizioni specifiche per affrontarlo. Da un lato, c’è il sistema di gestione del rischio, affidato ai provider dei sistemi di intelligenza artificiale. Dall’altro, troviamo il sistema di valutazione dell’impatto sui diritti fondamentali, che sarà gestito solo da alcuni deployer, ossia da utilizzatori professionali selezionati. Questi ultimi sono infatti i più adatti a esaminare le caratteristiche della popolazione su cui il sistema verrà applicato e a valutare le conseguenze sui diritti fondamentali”, racconta la Dr.ssa Giulia Olivato della Facoltà di Giurisprudenza dell’Università di Trento.
Come supportare comprensione e applicazione dell’AI Act?
Alessandro Sperduti, direttore del Centro Augmented Intelligence di FBK sostiene che “il ruolo dell’accademia e della ricerca è soprattutto quello di promuovere la cultura, fondamentale per comprendere a fondo le problematiche e i fattori che influenzano l’applicazione di sistemi complessi come quelli di intelligenza artificiale. Questo compito è cruciale e deve partire già dai banchi universitari, per poi estendersi al livello della ricerca. Inoltre, è essenziale saper comunicare in modo chiaro e semplice concetti che, per loro natura, sono complessi.”
“Credo che i centri di ricerca debbano e possano giocare un ruolo fondamentale nell’affrontare le sfide poste dall’AI Act. Questo regolamento ci invita a una trasformazione cruciale: passare dalla quantità alla qualità. Negli Stati Uniti e in Cina sono stati investiti miliardi per sviluppare sistemi estremamente potenti, capaci di affrontare ogni problema. Noi, invece, dobbiamo concentrarci sulla creazione di sistemi basati su dati corretti, puliti e trasparenti, in cui sia chiaro con quali informazioni sono stati addestrati e che risultino più affidabili. È una sfida ambiziosa, ma rappresenta l’unico modo per competere in una gara che non può essere vinta puntando esclusivamente sulla quantità. Sistemi più affidabili sono ciò di cui molte istituzioni, dalla pubblica amministrazione alle aziende, hanno realmente bisogno. Quando parlo di ricerca, non intendo solo quella portata avanti dagli esperti di intelligenza artificiale, ma anche il contributo fondamentale di giuristi, esperti di normative ed esperti di dominio. La migliore intelligenza artificiale per la medicina si costruisce con i medici, per il diritto con i giuristi e per l’industria 4.0 con gli ingegneri”, conclude Paolo Traverso, direttore Pianificazione Strategica di FBK.