Algoritmi contro le fake news
L’intelligenza artificiale come valida alleata per stampa e fact-checker nella promozione di un’informazione veritiera e consapevole
Il primo fine settimana di maggio 2023 Rovereto si è animata con il Wired Next Fest 2023, all’interno del quale si è svolto il talk “Algoritmi contro le fake news” nella splendida cornice di Palazzo del Bene. Sul palco si sono alternati Riccardo Gallotti, responsabile dell’unità di ricerca CHuB lab del Centro Digital Society di FBK e Chiara Zanchi, ricercatrice in Glottologia e Linguistica presso l’Università di Pavia.
La discussione è partita dal concetto di inconsapevolezza, ovvero che sia nel caso delle fake news che in quello della narrazione di eventi violenti come femminicidi o incidenti stradali, non si tratta sempre di una questione di volontà del giornalista o di chi dirama l’informazione di farlo in modo nocivo e inappropriato, per ricevere più click, ma di semplici errori di valutazione.
Chiara Zanchi ha introdotto l’argomento fornendo alcuni esempi linguistici che fanno capire come la scelta di una specifica parola o costrutto sintattico determini la percezione di un evento.
Per esempio, la frase “La furia omicida si è scatenata” dipinge un evento causato da qualcosa di esterno, come accade per un temporale, mentre in realtà c’è un diretto responsabile di tale furia omicida.
Similmente, leggendo “Negli ultimi 6 mesi le violenze si sono aggravate”, il soggetto viene deresponsabilizzato e si ha la percezione di un evento spontaneo, che non dipende dalla volontà del singolo.
Oltre alle costruzioni sintattiche, anche le parole hanno un peso. Una “tragedia” è un evento che comprendo uno o più partecipanti che muoiono (es.: terremoto, alluvione), se invece parlo di uccisione il termine sussume in sé un’entità che uccide e una che viene uccisa.
Risulta quindi immediatamente chiaro come ad una determinata narrazione di un fatto corrisponda una diversa percezione dello stesso in termini di attribuzione della responsabilità e dei ruoli giocati dai soggetti coinvolti. Non ci troviamo in questo caso di fronte a una fake news, ma ad una narrazione talvolta inconsapevole che può però sollevare percezioni erronee nel pubblico ricevente.
Riguardo all’ormai comunissimo termine fake news, Riccardo Gallotti ha specificato subito che in realtà è un termine molto generico e senz’altro abusato, che si riferisce sia a qualcosa di leggero che di molto grave. Inoltre, è un termine passivo che non mostra l’intento doloso di chi dirama notizie false. Meglio, dunque, parlare di misinformazione o disinformazione.
La disinformazione è volontaria (diffondere consapevolmente notizie false), oppure si possono trasmettere informazioni pensando siano veritiere quando invece non lo sono (misinformazione).
Da non sottovalutare poi gli effetti manipolativi accentuati da bot che amplificano il segnale o che stimolano gruppi particolari, o i troll che attivano i messaggi e li diffondono a pagamento.
Ed è qui che entra in gioco l’Intelligenza artificiale, con un unico scopo comune: aiutare l’essere umano a trasmettere una corretta informazione.
All’interno del progetto “Responsability framing”, portato avanti assieme alle università di Amsterdam, Groningen e Torino, Chiara Zanchi ha analizzato un corpus di articoli della stampa italiana – locale e nazionale – sul femminicidio, notando come la sintassi e la scelta terminologica influenzino considerevolmente la percezione dei ruoli di vittima e carnefice, a seconda per esempio che si utilizzi un costrutto attivo (“l’uomo ha ucciso la donna) anziché passivo (“la donna è stata uccisa”), oppure spostando l’attenzione dai protagonisti (vittima e assassino) all’accaduto (l’evento o il fatto). Con l’aiuto di un team di linguisti computazionali è stato poi elaborato un questionario percettivo con domande riguardanti il focus (chi/cosa viene evidenziato?), la causa (emozione o essere umano?) e l’attribuzione di responsabilità (blame), somministrato a 200 persone. I risultati hanno confermato che specifiche scelte sintattiche o lessicali determinano effettivamente una diversa percezione della colpa e delle responsabilità di un fatto. Da qui, è stato creato un algoritmo di IA in grado di definire quantitativamente il punteggio riguardo a focus, blame e causa, che può diventare un valido alleato per esempio dei giornalisti.
Il progetto europeo triennale AI4TRUST, coordinato dalla Fondazione Bruno Kessler e in collaborazione con 17 partner, mira invece a combattere la misinformazione e la disinformazione all’interno dell’Unione Europea creando un ambiente affidabile che integri il monitoraggio automatizzato dei social media e dei mezzi di informazione con tecnologie avanzate basate sull’intelligenza artificiale per migliorare il lavoro dei fact-checker umani. Al giorno d’oggi, infatti, la disinformazione corre troppo veloce nella rete, soprattutto sui social media e in particolare quella legata a sanità e cambiamento climatico, e la mole di contenuti è tanto grande da rendere impossibile un controllo puntuale da parte dei soli esseri umani.
Serve dunque un sistema basato sull’intelligenza artificiale ibrido, ovvero che supporti il lavoro dell’essere umano per combattere la disinformazione, che è proprio ciò che si propone di fare il progetto AI4TRUST. Il sistema monitorerà diversi social media e fonti di informazione in tempo pressoché reale, utilizzando gli algoritmi di intelligenza artificiale più recenti per analizzare testi, audio e video in sette lingue diverse. Sarà, quindi, in grado di selezionare i contenuti con un alto rischio di disinformazione (es.: immagine già utilizzata in precedenza, vecchia, oppure testo connotato da alto livello emotivo) in modo da segnalarli per la revisione a fact-checker professionisti, il cui contributo fornirà ulteriori informazioni per il miglioramento degli algoritmi stessi.
L’idea del progetto è germogliata nelle prime fasi della pandemia da Covid-19, quando il centro DIGIS di FBK ha iniziato a tracciare l’infodemia collegata al virus; ne è nata una piattaforma che però considerava solo i testi e tracciava la disinformazione solo analizzando i link. Pertanto, se una notizia proveniva da una testata normalmente affidabile, veniva classificata come veritiera, cosa che però non può essere garantita in ogni contingenza.
Si è sentita dunque l’esigenza di un progetto più ampio che analizzasse anche altre fonti.
Ma in tutto ciò che ruolo ha l’essere umano? Dove si collocano, in questo scenario, giornalisti e fact-checker?
In realtà l’essere umano è essenziale per lo sviluppo e la ricerca di questi nuovi, potenziali strumenti. Nel caso del progetto di Chiara Zanchi, i parlanti nativi che hanno preso parte al questionario sono stati di fondamentale importanza, e in ogni caso l’ultima parola rimarrà sempre al professionista umano che poi confeziona l’informazione. Lo scopo, dunque, è solo quello di fornire uno strumento utile ad acquisire consapevolezza sulle scelte linguistiche che si operano quando si redige un testo di cronaca, alla luce di come il modo di raccontarlo influenzi poi la percezione della collettività sociale.
Allo stesso modo, anche il progetto AI4TRUST si basa sul concetto di human in the loop: la ricerca coinvolge infatti giornalisti e fact-checker che giovano dell’apporto dei tecnici informatici dell’IA per verificare la veridicità di un’immagine, un testo o un video. L’obiettivo ultimo è quello di creare un circolo virtuoso in cui l’IA si affianca ai fact checker per promuovere un’informazione corretta.