For a Human-Centered AI

Pensieri lenti, veloci e velocissimi: tra “Incoscienza Artificiale” e “AI Literacy”

26 Maggio 2025

L'intelligenza artificiale (IA) ridefinisce il modo in cui pensiamo, decidiamo e interagiamo con il mondo. 

Ormai pervade la vita quotidiana, filtrando informazioni, prevedendo risultati e offrendo soluzioni con una rapidità senza precedenti. In questo modo l’IA diventa un’estensione delle nostre capacità, contribuendo potenzialmente a rimodellare i nostri processi cognitivi. L’impatto dell’IA sulle competenze umane e il concetto di alfabetizzazione all’IA (“AI Literacy”), introdotto dalla recente normativa europea, diventano perciò questioni chiave. Oltre che competenze tecniche, l’alfabetizzazione all’IA richiede lo sviluppo di una consapevolezza critica, di una comprensione etica e di capacità interpretative, affinché l’IA rimanga una risorsa anziché un sostituto del giudizio umano. Saper sfruttare le numerose applicazioni di IA, riconoscendone al contempo i limiti con la consapevolezza che essa non è in grado di cogliere le relazioni di causa-effetto, sarà fondamentale per preservare il ruolo distintamente umano nei processi decisionali.

Nel suo libro Incoscienza Artificiale e nel recente articolo pubblicato su Nature, Massimo Chiaratti esplora questo tema introducendo un nuovo concetto, il “Sistema 0”, che estende il modello cognitivo proposto da Daniel Kahneman in Pensieri lenti e veloci. Chiaratti propone una visione dell’IA come un nuovo livello della cognizione umana e che può quindi avere un impatto sulla nostra capacità di pensare e prendere decisioni. 

Il modello di Daniel Kahneman, premio Nobel per l’economia, delinea due principali sistemi di pensiero che governano il nostro processo decisionale.

  • Il Sistema 1 è veloce, intuitivo e automatico. Questo sistema ci permette di rispondere rapidamente alle situazioni quotidiane senza un grande sforzo mentale. Per esempio, riconoscere un volto familiare o reagire istintivamente a un pericolo.
  • Il Sistema 2 invece è lento, analitico e deliberativo. Qui entra in gioco il pensiero critico e razionale. Questo sistema richiede più energia e tempo, ed è attivato quando dobbiamo risolvere problemi complessi o prendere decisioni strategiche.

L’intelligenza artificiale introduce una terza dimensione, che Chiaratti chiama “Sistema 0” e che funge da intermediario tra noi e la realtà. Diversamente dai sistemi umani, il Sistema 0 non comprende e non possiede consapevolezza. Tuttavia, è in grado di elaborare dati e generare previsioni con una velocità e una precisione ineguagliabili. Il Sistema 0 diventa così un di filtro a cui facciamo affidamento per prendere decisioni sulla base delle previsioni che l’IA ha già fatto per noi. Questo rappresenta un potenziamento delle nostre capacità: il sistema 0 è in grado si offrici una serie di strumenti, capacità di calcolo ed elaborazione delle informazioni altrimenti inarrivabili per gli esseri umani, ma allo stesso tempo è un rischio per il pensiero critico nel momento in cui si insinua la tendenza a delegare le decisioni all’algoritmo. 

Emerge, perciò, il tema dell’impatto dell’intelligenza artificiale sulle competenze umane. Se da un lato questa permette di liberare tempo ed energie da dedicare a compiti di maggior valore aggiunto o di sviluppare nuove conoscenze grazie a strumenti di apprendimento innovativi e personalizzati, dall’altro un’eccessiva dipendenza dagli algoritmi rischia di appiattire le competenze e indebolire l’abitudine a ragionare in modo autonomo. Il termine “Incoscienza Artificiale” vuole sottolineare come l’IA sia incapace di comprendere le relazioni causa-effetto, il significato dei dati che elabora o dei testi che produce. La comprensione dei nessi causali, e non solo delle relazioni numeriche, resta un’abilità prettamente umana. Per questo motivo, pur integrando l’abilità delle macchine, è essenziale mantenere il giudizio umano nel processo decisionale (principio di “human in the loop”) per evitare rischi sistemici e imprevedibili derivanti da una deresponsabilizzazione umana e da un uso acritico delle tecnologie.

Il libro propone infine alcune soluzioni per affrontare le sfide dell’AI: serviranno formazione sia sulle competenze STEM che sulle competenze complementari all’AI, investimenti in ricerca e in infrastrutture pubbliche per la raccolta dati, supportate da una regolamentazione che favorisca la collaborazione internazionale.  Poiché l’IA è un tema globale, è necessario rafforzare la cooperazione internazionale, istituendo centri di ricerca internazionali, incrementando gli investimenti e incentivando politiche per attrarre talenti da diversi Paesi. Nelle aziende servono dirigenti sufficientemente competenti in ambito tecnologico per sapere come adottare l’IA nei processi aziendali, promuovendo produttività e nuova occupazione qualificata. È altresì importante evitare che le innovazioni basate sull’IA diventino esclusivamente proprietarie, limitando la concorrenza e la condivisione della conoscenza. In ambito accademico occorre rafforzare l’integrazione delle scienze computazionali con quelle sociali, mentre in nello sviluppo di IA è promettente la diffusione di strumenti “no code”, che rendono accessibili le tecnologie a  chi non ha  competenze specialistiche di programmazione. 

L’IA è inevitabile, ma non la delega di responsabilità umane. Gli impatti dell’IA, positivi o negativi, sono strettamente legati alle scelte politiche e aziendali; perciò è centrale il tema della governance dell’IA ed è necessaria la capacità di orientarsi tra discipline eterogenee per affrontare questa sfida. L’AI Act è un passo importante in questa direzione e, in particolare, l’entrata in vigore il 2 febbraio 2025 dell’articolo 4 che introduce l’obbligo di “AI literacy”, ovvero la necessità che tutti gli operatori coinvolti nell’implementazione o nell’utilizzo di sistemi di IA possiedano competenze adeguate. Il concetto di “AI literacy” include non solo la capacità di utilizzare i sistemi di IA, ma anche una consapevolezza dei rischi e delle opportunità associati a queste tecnologie, sottolineando la responsabilità di fornitori, operatori e persone interessate nel garantire un uso critico dei sistemi di IA e riaffermando il ruolo centrale delle competenze umane

La non conformità all’Articolo 4 potrebbe comportare conseguenze legali, in particolare per le organizzazioni che utilizzano sistemi di IA ad alto rischio, nonostante manchi ancora una definizione chiara dei i meccanismi di enforcement. Tuttavia, è importante vedere questa disposizione non solo come un obbligo normativo: l’investimento in competenze legate all’IA rappresenta un’opportunità strategica per le aziende. Garantire che le persone all’interno di aziende ed organizzazioni siano formate sull’uso dell’IA e consapevoli dei rischi non servirà solo a ridurre il rischio di sanzioni, ma anche ad accelerare l’adozione e l’innovazione legata all’IA. In questo modo l’articolo 4, se applicato con lungimiranza, può rappresentare un’opportunità per regolamentare e al contempo promuovere lo sviluppo dell’intelligenza artificiale. 

L’Ufficio dell’UE per l’IA sta raccogliendo alcune delle misure adottate da organizzazioni e aziende che hanno anticipato la normativa aderendo  patto sull’IA, al fine di creare un archivio vivente di buone pratiche in materia di “AI literacy”. Tuttavia, la Commissione Europea non ha fornito standard uniformi, sottolineando l’esigenza di flessibilità e l’impossibilità di adottare un approccio unico per tutti. Se da un lato questo consente alle aziende di sviluppare iniziative tarate sulle proprie esigenze, dall’altro lascia aperti molti interrogativi: quali contenuti dovrebbero prevedere i programmi di formazione? Quali competenze saranno più richieste? Chi finanzierà le iniziative formative? E come dovrà essere valutato l’impatto? Queste domande pongono sfide interessanti per le imprese, la ricerca e le istituzioni pubbliche ed evidenziano l’importanza di una rigorosa valutazione d’impatto al fine di verificare che le iniziative formative accrescano effettivamente le competenze dei lavoratori, piuttosto che limitarsi a soddisfare un obbligo normativo.

Infine, benché l’AI Act si concentri prevalentemente su fornitori e utilizzatori di IA, il concetto più ampio di alfabetizzazione all’IA riguarda non solo la forza lavoro, ma anche le generazioni più giovani e quelle più anziane, tra cui bambini, genitori e insegnanti. Investendo in una formazione realmente efficace, possiamo fare in modo che la tecnologia resti uno strumento e non un sostituto del pensiero umano, promuovendo una maggiore consapevolezza delle potenzialità dell’IA ed evitando di scivolare nella trappola dell’ “Incoscienza Artificiale”.


Autore/i