
L’Intelligenza Artificiale è ormai parte integrante della nostra quotidianità: basti pensare agli assistenti vocali, ai sistemi che ci suggeriscono prodotti, film e musica sulla base dell’analisi delle nostre preferenze, all’automatizzazione dei processi aziendali che l’IA rende possibile, minimizzandone il margine d’errore e velocizzandoli, alla selezione dei curricula o al servizio clienti digitale.
Meno noto risulta invece il fatto che, dall’interazione tra intelligenza umana e artificiale, si starebbe sviluppando un “Sistema zero” di pensiero, destinato, se utilizzato correttamente, a potenziare il ragionamento intuitivo e analitico.
A documentare questa teoria, è lo studio “The case for human-AI interaction as System 0 thinking” pubblicato sulla rivista scientifica “Nature Human Behaviour”, la quale si dedica alla divulgazione di ricerche legate al comportamento umano; nello specifico si sofferma sul modo in cui gli esseri umani percepiscono, pensano, deliberano, agiscono e interagiscono con l’ambiente e con gli altri individui.
Prima di riportare le riflessioni presentate nello studio, occorre fare un passo indietro: nel 2011 è stato pubblicato “Thinking, Fast and Slow”, uno scritto in cui Daniel Kahneman, psicologo israeliano, attua l’estrema e puntuale sintesi delle ricerche compiute negli anni precedenti. Vincitore del Premio Nobel per l’economia nel 2002, è stato anche professore emerito di psicologia e affari pubblici presso la Princeton University.
Nel saggio viene descritto il funzionamento della mente durante i processi decisionali, distinguendo tra due sistemi o modalità di pensiero: il “Sistema 1”, che è quello primitivo, rapido, emozionale, automatico e inconscio, tipico dei giudizi espressi con impulsività, basati su dati sommari e analizzati superficialmente; il “Sistema 2”, lento, logico, deliberato e conscio, tramite cui le scelte sono ponderate ed esaminate con razionalità.
La prima modalità, detta intuitiva, è responsabile delle decisioni rapide e spontanee, la seconda, detta analitica, di quelle complesse, le quali richiedono maggiore impegno cognitivo. Le due componenti si integrano l’un l’altra in base alle circostanze e alla problematicità richiesta dal processo deliberativo.
Attualmente, la questione risulta più complessa, in quanto l’avvento dell’IA ha introdotto un nuovo paradigma: il “Sistema 0”, che si configura come un apporto esterno alla mente umana, ma ugualmente in grado di interferire con il processo decisionale. Si tratta di un sistema che immagazzina ed elabora un’enorme quantità di dati, che però non è nelle condizioni di interpretare, ragion per cui offre delle risposte che supportano la comprensione umana ma che, per il momento, non la sostituiscono.
Ciononostante, non mancano questioni di rilevanza etica su cui discutere, primo fra tutti il rischio di “automation bias”: il “Sistema 0”, oltre a raccogliere e ordinare i dati, semplifica e filtra le informazioni, rendendole accessibili ad un numero sempre crescente di persone, anche potenzialmente prive degli strumenti per analizzarle con consapevolezza e senso di responsabilità. Il rischio di questa funzione è l’abitudine ad accogliere risposte rapide e approssimative, che ha come conseguenza il venir meno del pensiero critico, la cui passività determina l’assoluta e sconsiderata fiducia nell’output dell’IA, fallibile e manipolabile.
A proposito di manipolazione, il “Sistema 0” pone interrogativi rispetto al rapporto che intercorre tra la mente umana e i contenuti generati da algoritmi, i quali acquisiscono un’esistenza circoscritta al mondo virtuale, a differenza degli altri due sistemi, che traggono impulso dalla realtà. Perciò, il continuo apporto di dati sintetici è nelle condizioni di deformare la percezione umana tramite “bias” difficilmente riscontrabili da non esperti, sfruttabili per esempio in campagne di propaganda politica.
Oltre ad influenzare il nostro modo di interpretare la realtà e di deliberare, il nuovo sistema può interferire anche con la maniera in cui comprendiamo e percepiamo noi stessi: grazie allo sviluppo di IA che monitorano e analizzano le nostre azioni e stati mentali, è possibile esaminare la psicologia personale. Sempre più spesso ci si affida all’auto-analisi compiuta da algoritmi del tutto svincolati dalla realtà introspettiva individuale, che determinano il rischio di “depersonalizzazione” della nostra esperienza interiore.
Infine, se ci si affida in modo acritico alle risposte di un sistema estraneo alla mente umana, si rischia di andare incontro ad una standardizzazione del pensiero, che consiste non solo nel venir meno della varietà di opinioni, ma anche nella perdita di autonomia nella gestione delle scelte collettive, in quanto le società risulterebbero soggette alla disinformazione e alla manipolazione perpetrata da personalità mosse da interessi politici ed economici.
Gaia Romano
