For a Human-Centered AI

L’Intelligenza artificiale aiuterà nel combattere le fake news

14 Novembre 2023

Intervista a Riccardo Gallotti, responsabile del Complex Human Behaviour LAB in FBK e coordinatore del progetto europeo AI4TRUST. Obiettivo: supportare i professionisti dell'informazione smascherando misinformation e disinformation grazie a tecniche evolute di Intelligenza Artificiale

Riccardo Gallotti lo incontro la prima volta alla festa di quartiere di San Pio X, a Trento: un amico comune ci presenta e mi spiega il progetto al quale sta lavorando. Parliamo del quartiere e dei suoi punti di forza, dal momento che sta cercando di acquistare casa in città. Intuisco che questo giovane ricercatore di Crema, con una formazione da fisico teorico, dietro l’apparenza un po’ svagata cela un’esperienza da scienziato di punta.
Non a caso dirige il CHuB Lab (The Complex Human Behaviour Lab) della Fondazione Bruno Kessler, che si occupa della modellazione statistica del comportamento umano individuale e collettivo, e coordina un progetto europeo da sei milioni di euro per il contrasto della disinformazione online grazie all’aiuto dell’Intelligenza artificiale.
Si chiama «AI4Trust», e ha lo scopo – grazie all’alleanza tra esseri umani e macchine – di combattere le fake news online. Anche se questo termine non piace a Riccardo Gallotti, che preferisce utilizzare quello di misinformazione – nata da un errore involontario – o di disinformazione, quando la notizia falsa viene diffusa con intenzioni manipolatrici.
Ci diamo appuntamento qualche settimana dopo esserci conosciuti per approfondire la sua ricerca.
Quello della disinformazione è un tema delicato e di grande impatto, anche politico: secondo un’inchiesta internazionale Ipsos del 2019 ben 86% dei 25mila intervistati in tutto il mondo sostenevano di essere stati confrontati a fake news su Internet, in particolare su Facebook, e quasi nove su dieci hanno ammesso di averci inizialmente creduto.
Nel 2016 la disinformazione ha avuto probabilmente un ruolo importante nell’elezione di Donald Trump alla Casa Bianca e durante il Covid le notizie false, spesso a carattere complottista, hanno creato grande confusione in un momento di sofferenza e incertezza.
Ed è proprio dal 2020 che inizia l’impegno di Riccardo Gallotti sul fronte della disinformazione, quando viene coinvolto in un progetto lanciato dal Professor Manlio De Domenico, ora all’Università di Padova. Lo scienziato ha avuto l’idea di seguire l’evoluzione della disinformazione attorno a un virus che ancora non interessava a nessuno: nasceva l’Infodemic Observatory for Covid-19, che verrà poi sostenuto dall’Oms come strumento di monitoraggio della diffusione della misinformazione attorno alla pandemia.

Gallotti, come funziona il progetto che coordina, «AI4Trust»?

«Prima di tutto abbiamo individuato tre temi attorno ai quali lavorare: il cambiamento climatico, la salute pubblica e la questione dei migranti, tutti argomenti con un impatto globale e su cui prolifera la disinformazione. Grazie a degli strumenti di data science scandagliamo un set di parole chiave ma anche di utenti e gruppi chiave presenti sui social media e
su alcune testate online. Il risultato è una grande mole di dati che viene data in pasto all’intelligenza artificiale, la quale estrae le tematiche e le narrative emergenti in rete e le segnala al team internazionale di professionisti dell’informazione, che si occupano di verificare la loro veridicità, le selezionano e le sottopongono al vaglio della critica. Inoltre grazie all’IA e a strumenti matematici propri della scienza delle reti complesse, si può riuscire a capire quanto le notizie false siano il risultato di una campagna concertata in modo volontario oppure no».

Qual è l’obiettivo del progetto?

«L’obiettivo è quello di creare una piattaforma di consultazione dove i professionisti possano avere sott’occhio i “trending topics”, cioè i temi attorno ai quali cresce la disinformazione in un dato periodo. In questo caso l’intelligenza artificiale funziona come un filtro, che sulla base dei modelli su cui è stata “educata” riesce a fornire materiale già selezionato ai revisori umani cui spetta l’ultima parola».

Ma come si fa a istruire l’Intelligenza Artificiale?

«Prendiamo l’esempio delle “fake news ”: si chiede a un gruppo di esperti di mettere a punto una tabella con 1000 esempi di notizie false e altre 1000 valutate come vere. Sulla base di questa lista, l’IA impara a differenziare le une dalle altre. Questo processo però non si ferma ai primi 1000 dati, ma è solo l’inizio di un apprendimento continuo basato sull’interazione con altri esperti, che validano le risposte suggerite dall’IA su nuove notizie. In questo modo le sue  competenze vengono continuamente migliorate».

Il nuovo fronte della battaglia contro la disinformazione online è quello dei cosiddetti deep fake…

«Sì, si tratta di fotografie, audio o video modificati in modo così realistico dalle IA da sembrare veri: per esempio il politico al quale si fa dire una cosa diversa da quello che ha detto veramente, cosa molto pericolosa per esempio in tempi di guerra. Paradossalmente per un’IA è più facile riconoscere i deep fake in un video o in un audio che le fake news in un testo scritto. Anche perché alcune comunità nelle quali si è diffusa la disinformazione, su alcuni temi hanno imparato a usare dei neologismi per passare sotto i radar » .

Il fatto è che l’IA può essere usata per costruire e diffondere fake news… 

«Sì, è uno strumento di disinformazione molto potente: può essere utilizzata per creare notizie false e anche per costruirle con il linguaggio adatto a penetrare in determinati gruppi sociali. Ma è vero anche il contrario: la potenza dell’IA può diventare uno strumento per combatterle. Ma alla fine è sempre necessario l’intervento umano, perché il vero limite delle macchine è la loro incapacità di capire il contesto e quindi di interpretare correttamente alcuni messaggi».

Che cosa significa?

«Le AI come ChatGpt non sono state addestrate a dire cose vere, sono solo in grado di unire parole che stanno bene insieme. Ma se gli chiedi di spiegarti la filosofia di Socrate, al momento possono farlo solo con la profondità di comprensione di un liceale».

Le IA diventeranno sempre più presenti nelle nostre vite. Quali potrebbero essere le conseguenze? 

«La fiducia nei confronti di questi strumenti si costruisce con l’uso. Già oggi sono in molti a scrivere testi usando IA. Un mio studente mi ha proposto di studiare le fanfiction (cioè opere di finzione amatoriale scritte dai fan prendendo come spunto le storie o i personaggi di un’opera originale, ndr.) e di cercare di coglierne l’evoluzione con l’arrivo delle IA, che vengono spesso utilizzate per scriverle. In generale immagino che utilizzeremo sempre più strumenti come ChatGpt e in questo modo la lingua usata dall’intelligenza artificiale diventerà prescrittiva. A poco a poco il nostro modo di scrivere si conformerà a quello che è considerato “giusto” dai suoi modelli linguistici». Finita la nostra conversazione e i nostri due caffè, Riccardo Gallotti mi dice: «Alla fine ho forse trovato casa, proprio in San Pio X».


Articolo di Mattia Pelli pubblicato su il T quotidiano Domenica 5 novembre 2023.


Autore/i