For a Human-Centered AI

Can che ha bias non morde?

31 Maggio 2022

Nella nuova puntata di Radio FBK, una conversazione inedita sulla relazione che esiste tra discriminazioni e tecnologie. Protagonisti del dialogo, Luisa Bentivogli e Marco Guerini, rispettivamente Ricercatrice dell’unità Machine Translation del Centro Digital Industry e Responsabile dell’Unità di Ricerca Language and Dialog Technologies presso il Centro Digital Society.

L’esplosione dell’utilizzo di tecnologie informatiche avanzate, in particolar modo legate all’uso di tecniche di intelligenza artificiale, pone delle sfide importanti per quanto riguarda l’inclusione e la valorizzazione delle diversità di genere, etnie, religione o abilità. Ad esempio, una prima sfida riguarda i prodotti dell’IA: la femminilizzazione degli assistenti vocali o i bias nel riconoscimento di immagini verso volti di donne di colore mostrano come occorre evitare il rischio di creare una tecnologia che incorpora, e amplifica, gli stereotipi e i pregiudizi che con fatica stiamo cercando di affrontare.

Il dialogo fra i due esperti prende in esame il contributo della ricerca in questo campo, particolarmente complesso e in rapida evoluzione. A partire dalla definizione stessa di bias, ci accorgiamo della ricchezza dei riferimenti mappati in letteratura. Inoltre, l’esperienza della nostra vita quotidiana ci fa constatare che non è affatto detto che un pregiudizio sia una cosa negativa, al contrario può rivelarsi addirittura salvifico in certe circostanze. Proseguendo, in che modo dati e algoritmi rischiano di amplificare le disuguaglianze e le discriminazioni esistenti nella nostra società?

Il tema trattato ci aiuta a tenere accesi i riflettori sull’impegno assunto dalla comunità della ricerca della Fondazione Bruno Kessler verso il contrasto delle discriminazioni, argomento oggetto di approfondimento e di iniziative di sensibilizzazione in tutta Europa, ogni anno nel mese di maggio.

In particolare, il racconto audiovisivo che qui presentiamo rende l’idea della vivacità del dibattito in corso nella comunità scientifica, poiché per comprendere il fenomeno dei bias algoritmici occorre approfondire molti aspetti che si intrecciano: i valori e gli stereotipi inscritti nel linguaggio, il linguaggio come forma di pensiero che costruisce universi narrativi (che includono oppure escludono) e infine il ruolo decisivo che giocano non solo i dati ma anche i modelli che su di essi vengono addestrati.

Le scelte algoritmiche ormai ci toccano personalmente in maniera sempre più estesa e rilevante, spesso senza che la maggior parte delle persone se ne accorga. Come sempre, la tecnologia è neutrale, l’uso che se ne fa può essere indirizzato in maniera socialmente costruttiva o meno.

I contributi della ricerca descrivono la possibilità di usare le reti neurali per generare contro-narrazioni capaci di contrastare i discorsi d’odio online e fanno emergere tutte le difficoltà nel sentiero dello sviluppo di un linguaggio inclusivo che elimini le distinzioni di genere dove non sono necessarie o per chi non si sente rappresentato/a da una realizzazione linguistica maschile o femminile (non-binary). Sono molte le domande che restano aperte, sulle potenzialità e sui limiti di approcci e strumenti disponibili. Dove ci si ferma? Quando un linguaggio rischia di trasformarsi da suggerimento a imposizione?

Siamo curiosi di ascoltare le risposte o le osservazioni di chiunque abbia deciso di dedicare il proprio tempo per ascoltare o guardare il nostro podcast. La conoscenza è una sfida che chiama in causa l’intelligenza collettiva e nessuno è escluso. Scriveteci via Facebook, Instagram, Linkedin o Twitter. Leggeremo e risponderemo a tutte/i prima possibile.


Questo podcast fa parte della serie Scienza e Società. Scopri tutte le produzioni di Radio FBK e non perderti le prossime puntate: seguici su Spreaker o Spotify.


Autore/i