For a Human-Centered AI

Intelligenza Artificiale spiegabile per stili di vita più sani

26 Ottobre 2020

I sistemi di coaching virtuale possono aiutare i malati cronici a migliorare la loro salute giorno dopo giorno

Progettare e realizzare piattaforme tecnologiche basate su tecniche d’intelligenza artificiale (IA) per rendere il cittadino più consapevole nella gestione della propria salute e cura e collaboratore attivo nella relazione con gli operatori sanitari.

Per raggiungere questo difficile traguardo, uniamo diverse competenze di eccellenza e avanziamo nella conoscenza nei relativi ambiti: dalle tecniche di PNL alle tecnologie persuasive, dall’apprendimento automatico al software su misura e allo sviluppo di app.

Tali tecnologie digitali possono aiutare il sistema sanitario a prevenire o monitorare malattie. In particolare, attraverso sistemi di coaching virtuale in grado di tracciare i cambiamenti nelle abitudini quotidiane dei pazienti. In questo modo, le persone con malattie a componente nutrizionale possono adottare strumenti di supporto utili per capire come superarla o gestire la malattia.

Questi strumenti e logiche possono essere implementati seguendo uno schema flessibile; ciò è importante al fine di riutilizzare le tecnologie disponibili e trasferirle da un ambito disciplinare ad un altro, riducendo di molto, allo strettamente necessario, quello da reingegnerizzare.

Questo approccio necessita di un motore di ragionamento automatico caratterizzato dalla capacità di rappresentare input in funzione di obiettivi predeterminati.

L’intelligenza artificiale spiegabile mira a costruire sistemi intelligenti in grado di fornire una giustificazione delle loro decisioni chiara e comprensibile dall’uomo. Questo vale sia per i metodi basati su regole che per quelli basati sui dati. Nella gestione delle malattie croniche, gli utenti di questi tipi di sistemi sono pazienti che seguono rigide regole dietetiche per gestire le stesse. Dopo aver ricevuto l’input del cibo ingerito, il sistema esegue il ragionamento per capire se gli utenti abbiano seguito un comportamento nocivo. Successivamente, il sistema deve comunicare i risultati in modo chiaro ed efficace, ovvero il messaggio in uscita deve persuadere gli utenti a seguire le giuste regole alimentari.

Nel documento di ricerca intitolato “L’IA spiegabile incontra la persuasività: tradurre i risultati del ragionamento in consigli per un cambiamento comportamentale”, i ricercatori della FBK Mauro Dragoni, Ivan Donadello e Claudio Eccher affrontano le principali sfide per costruire tali sistemi:

  1. la generazione automatica di messaggi in linguaggio naturale che spieghino l’incongruenza rilevata dal ragionatore;
  2. l’efficacia di tali messaggi nel persuadere gli utenti.

I risultati dimostrano che le spiegazioni persuasive sono in grado di ridurre i comportamenti nocivi degli utenti.

Highlight
• Un sistema di intelligenza artificiale spiegabile basato sul ragionamento logico che assista il monitoraggio dei comportamenti degli utenti e li convinca a seguire sani stili di vita.
• L’ontologia viene sfruttata da un ragionatore basato su SPARQL allo scopo di rilevare situazioni indesiderate tra i comportamenti degli utenti, cioè verificare se le azioni dietetiche e le attività dell’utente sono coerenti con le regole di monitoraggio definite dagli esperti del settore.
• La parte centrale del componente Natural Language Generation si basa su modelli (una grammatica) che codificano le diverse parti (feedback, argomenti e suggerimenti) di un messaggio di persuasione.
• I risultati confrontano le spiegazioni persuasive con semplici notifiche di incongruenze e mostrano che le prime sono in grado di aiutare gli utenti a migliorare la loro aderenza alle regole dietetiche.


Autore/i