For a Human-Centered AI

Researc-HER-s power: le hard science raccontate dalle donne che le fanno

26 Febbraio 2021

Ciclo di webinar organizzati da HIT – Hub Innovazione Trentino per stimolare il dialogo sui filoni di ricerca d’avanguardia

Webinar del ciclo proposto da HIT – Hub Innovazione Trentino che ha visto alternarsi ai microfoni tre ospiti d’eccezione le quali hanno parlato, dal punto di vista di chi ha le mani in pasta, di intelligenza artificiale rapportata a ricerca, imprese e cittadini.

Alessandra Sala lavora come direttrice di AI and Data Science a Shutterstock ed è ambassador di Women in AI Ireland, associazione no profit che si pone come obiettivo quello di portare più donne nel mondo della tecnologia e AI per colmare il gap esistente, gap che non è solo professionale ma anche etico e sociale perché preclude la possibilità di avere attori diversi che si occupano di definire la tecnologia dal punto di vista etico e sociale, apportando i rispettivi punti di vista.

Ad Alessandra è stato chiesto in che modo l’AI può trasformare i modelli di business e interazione del cittadino in relazione ai prodotti offerti e lei ha subito messo enfasi sulla necessità, oggigiorno, di un modello di business che venga compreso dal cittadino, partendo da un ripensamento dei modelli economici stessi e da una maggiore collaborazione tra università e industria non solo per sviluppare nuovi modelli di AI, ma anche per portare nuovi prodotti nella società al servizio dei cittadini. Vanno quindi riportati al centro i valori di privacy e human right per rendere il cittadino non solo un mero fruitore dei prodotti offerti ma un consumatore pensante e informato.


Elisa Ricci ha invece una duplice affiliazione come professoressa associata dell’Università di Trento in AI e deep learning e responsabile dell’unità Deep Visual Learning di FBK, che studia l’intelligenza artificiale applicata alle immagini video e alla robotica con progetti finanziati dall’Europa e in partnership con Facebook, Snapchat, Huawei, ecc.

Vista quindi la sua comprovata esperienza con realtà molto grosse, Elisa ha parlato del valore aggiunto apportato dall’intelligenza artificiale alle aziende, in particolare a quelle che si trovano a dover elaborare grandi moli di dati (es.: monitoraggio e videosorveglianza) e hanno bisogno di soluzioni pratiche e veloci che preservino comunque la privacy. Non è una novità che sono sempre più plausibili scenari industriali dove uomo e robot coesistono, basti pensare alle catene produttive, sempre più robotizzate. Spingendosi un po’ in là con la fantasia, in un futuro persino aziende che si occupano di selezione del personale potranno essere coadiuvate da sistemi basati sull’intelligenza artificiale che facciano una scrematura dei candidati partendo dall’analisi delle emozioni, dei movimenti facciali, ecc.


Chiara Ghidini è una ricercatrice FBK che, dopo il dottorato alla Sapienza di Roma e un periodo di post-doc fra Manchester e Liverpool è rientrata in Italia per occuparsi di intelligenza artificiale simbolica, ovvero che utilizza regole esplicite nel ragionamento, unite al ragionamento di tipo induttivo (es. quello dei bambini).

Chiara è a capo dell’unità di ricerca PDI (Process and Data Intelligence) di FBK ed è co-responsabile scientifica del centro Digital Health and Wellbeing, che mette in relazione AI con il mondo della salute.

Chiara ha illustrato come la sempre più massiccia presenza dell’intelligenza artificiale in società, salute e amministrazione porti a un notevole miglioramento anche pratico per i cittadini, ad esempio snellendo i gravosi iter burocratici o assistendo i medici per la cura dei pazienti sfruttando modelli predittivi per individuare, ad esempio, il processo ideale di cura per i pazienti anziani (quando è meglio gestire un paziente a casa, quando in ospedale, quali sono le condizioni di vita del paziente, ecc.) o offrendo servizi di monitoraggio costante per le malattie croniche come il diabete mediante chatbot o assistenti virtuali, che possono aiutare a sviluppare soluzioni utili e non invasive per il paziente fornendo al contempo dati preziosi al medico curante.

Un avvento così importante di queste nuove tecnologie ha posto e continua inevitabilmente a porre problematiche di tipo etico e di privacy. Queste ultime sono state in parte arginate con l’introduzione del GDPR, ovvero la regolamentazione europea sulla privacy, uno strumento importante ma che presenta dei limiti, ad esempio nel momento in cui i dati forniti vengono poi stoccati o elaborati in cloud non situati in Europa oppure in USA o Cina, dove il regolamento non si applica.

Esistono poi delle limitazioni poste invece dal GDPR, per esempio nel caso il provvedimento renda inutilizzabili i dati acquisiti per limitazioni di privacy troppo stringenti che non contemplano il necessario rapporto di fiducia come quello esistente, ad esempio, fra medico e paziente, secondo cui i dati forniti dal singolo vengono impiegati per il bene collettivo. Serve quindi, oltre alla regolamentazione giuridica, anche una di tipo comportamentale e pragmatico, a cui l’Europa sta mettendo mano con white paper specifici sullo sviluppo e l’etica di AI.

Un ruolo chiave in tutto questo lo giocano senza dubbio l’educazione e la comunicazione delle nuove tecnologie: i tecnici informatici che mettono a punto le soluzioni di AI devono essere affiancati da colleghi sociologi e filosofi per affrontare le tematiche etiche. Al momento infatti il sistema universitario scarseggia di corsi che vadano oltre gli aspetti prettamente tecnici, che dovrebbero auspicabilmente essere inseriti nei percorsi di studio futuri per individuare soluzioni che attuino anche nel campo del diversity inclusion e del gender gap.

Anche la comunicazione dei progressi nel campo AI deve essere adeguata per evitare che si instaurino nei cittadini timori legati per esempio alla privacy, informando quindi correttamente su quello che l’intelligenza artificiale riesce effettivamente a fare e su quello che no, ad esempio estrarre solo certe tipologie di dati.

 


Autore/i