Come avrete probabilmente sentito o letto, in aprile la Commissione europea ha presentato una proposta di regolamentazione dell'intelligenza artificiale (IA), con l'obiettivo di consentire all'UE di raccogliere i benefici di questa tecnologia. In totale, le parole "fiducia"  e "affidabilità" appaiono più di 100 volte nella proposta. Questo solleva la domanda: capiamo davvero il ruolo della fiducia in relazione all'IA?

Che si tratti dello Swiss Digital Trust Label, della Trust Valley o del Center for Digital Trust, il tema della fiducia e del digitale è in voga, anche in Svizzera. Queste iniziative suggeriscono che la fiducia è un catalizzatore per implementazioni di successo dell’IA. Eppure, la professoressa Joanna Bryson ritiene che: "Nessuno dovrebbe fidarsi dell'intelligenza artificiale". Questo fa riflettere su tutto il parlare di fiducia nell'IA o nel mondo digitale. Quindi blockchain, l'industria delle criptovalute e I labels risolveranno tutti i nostri problemi di fiducia? (Spoiler alert: no, no, più o meno).

Prima domanda: possiamo fidarci dell'IA?  

Risposta breve: sì. Risposta lunga: è complicato.

La questione se siamo davvero capaci di fidarci delle macchine è fortemente dibattuta tra coloro che hanno fede ("sì, è possibile!") e coloro che dubitano ("non bisogna fidarsi delle IA!"). Noi siamo dalla parte di quelli che hanno fede. Partiamo dal presupposto che la fiducia tra esseri umani può essere trasposta e che, anche se diversa, è per molti versi simile alla fiducia che gli umani dicono di avere nelle macchine.

Nelle relazioni umane, la fiducia può essere intesa come una strategia di adattamento di fronte al rischio e all'incertezza. Questa strategia prende la forma di una valutazione. Per esempio, si esaminano le capacità della persona di cui fidarsi. Allo stesso tempo, la persona che ripone la sua fiducia è in una posizione vulnerabile. Come in ogni relazione, c'è anche qui il rischio di essere feriti. In altre parole, non c'è fiducia senza rischio.

Questa vulnerabilità è altrettanto critica quando si tratta di fiducia tra uomo e macchina. Fidarsi di una tecnologia significa aspettarsi un certo risultato o un certo comportamento quando la si usa. L'affidabilità di un sistema, le sue scarse prestazioni o i processi poco chiari e altri fattori possono alterare la fiducia riposta in esso. Fiducia e affidabilità sono quindi concetti distinti, che sono purtroppo spesso confusi.

Tre cose sono quindi importanti da capire: la fiducia è un atteggiamento verso un terzo (umano o macchina) (1) che dovrebbe aiutare a raggiungere un obiettivo specifico (2) in una situazione di incertezza (3). Posso fidarmi che Amazon consegni il mio pacco in tempo, ma non che rispetti la mia privacy.

Per tornare alla domanda posta, possiamo quindi rispondere che siamo effettivamente capaci di fidarci dell'IA in un contesto concreto. Ma è una ragione per farlo?  Questa è un'altra domanda...

Seconda domanda: dovremmo fidarci dell'IA?

Risposta breve: No. Risposta lunga: È complicato.

Da un punto di vista pratico e normativo, la questione se dobbiamo fidarci dell'IA è molto più interessante, perché sposta la discussione sul tema dell'affidabilità. Mentre la fiducia è un atteggiamento umano e una variabile latente complessa in termini psicometrici, l'affidabilità è una questione molto più tecnica legata alle proprietà della tecnologia. Quando Joanna Bryson dice che nessuno dovrebbe fidarsi dell'IA, il suo messaggio è molto chiaro: non usate i sistemi di IA (e molti altri sistemi) alla cieca.

Come esempio di fiducia cieca andata male, viene spesso citato il caso di un autista di una Tesla che ha perso la vita in un incidente perché stava giocando e non prestava attenzione alla strada, fidandosi così completamente del sistema. Se l'incidente mortale sia stato il risultato di un'eccessiva fiducia, di promesse di marketing ingannevoli da parte del produttore, di mancanza di intelligenza da parte del conducente, o di una combinazione di tutti e tre i fattori, probabilmente non lo sapremo mai. In ogni caso, educare le persone ad un approccio di fiducia zero nelle macchine è molto probabilmente il modo più sicuro per evitare gli infortuni.

Non fidarsi e privarsi di un sistema che potrebbe portare risultati migliori non è una panacea. L'ideale sarebbe promuovere la "fiducia calibrata", in cui l'utente adatta il suo livello di fiducia (se e come può fidarsi) in funzione delle prestazioni del sistema in questione. A seconda, o nonostante, le prestazioni, dato che molte aziende sono note per esagerare o nascondere le reali capacità dei loro prodotti (gli argomenti pubblicitari dovrebbero essere messi alla prova).

Quindi, calibrare la nostra fiducia può salvare delle vite, ma in caso di incertezza e di alto rischio nella relazione uomo-macchina, è meglio adottare la fiducia zero (meglio prevenire che curare).

Terza domanda: dovremmo smettere di parlare di fiducia?

Risposta breve: sì. Risposta lunga: è complicato.

Secondo noi, quando si dice che non ci si deve fidare dell'IA, il messaggio più importante è: pensa prima di agire. Ma pensare è faticoso. Non sarebbe bello se potessi fidarmi ciecamente di un'azienda che rispetti la mia privacy e consegni i miei prodotti in tempo? Mi dispiace, ma la blockchain non è d'aiuto in questo caso e non provate nemmeno a menzionare una cripto-soluzione. Un label può essere un buon inizio per tutte le cose che non sono regolate. Ma non stiamo rendendo le cose ancora più complicate aggiungendo un altro attore all'equazione della fiducia che già non capiamo completamente? Dovremmo studiare la fiducia nei labels come un indicatore della fiducia nelle macchine in futuro?

In definitiva, la fiducia come atteggiamento è un argomento interessante per gli psicologi. Ma quando parliamo di macchine o caratteristiche, dovremmo usare i termini giusti e concentrarci sull'affidabilità, perché è ciò che possiamo controllare meglio.

Domanda di follow-up: e la legge e la fiducia?

I labels sono utili per garantire l'affidabilità, ma le leggi non sono un'opzione migliore? Non dovremmo concentrare tutti i nostri sforzi su leggi e regolamenti? È il nostro unico vero indicatore di affidabilità? In primo luogo, sì: dovremmo puntare molto su leggi e regolamenti per garantire la responsabilità dei designer. Secondo, no: l'equazione "legge e fiducia" è una falsa risposta. La ragione delle leggi non dovrebbe essere quella di aumentare la fiducia, ma piuttosto di promuovere la responsabilità e il corretto funzionamento della società. Lo scopo fondamentale di una legge è quello di stabilire norme, mantenere l'ordine, risolvere le controversie e proteggere le libertà e i diritti, non quello di aumentare la fiducia nelle persone o in AI.

Conclusione: non preoccupatevi dei dettagli

Le leggi e i labels etici non risolvono il problema della fiducia. In effetti, può anche essere che la formula "più ti fidi, più usi una tecnologia" non sia vera. La gente si affida ai prodotti meno affidabili per le ragioni più irrazionali - l'homo oeconomicus razionale è morto. Sociale fino al midollo, l'uomo di oggi apprezza la convenienza e la socialità. Ci piacciono gli umani, ci piace legare e, non avendo altre risposte comportamentali da mobilitare, umanizziamo anche le macchine.  

Questo antropomorfismo non è così male, a condizione che gli agenti non siano progettati appositamente per manipolare le persone. Certo, la frase "IA degna di fiducia" è un linguaggio antropomorfico, ma ha il merito di comunicare un messaggio che è immediatamente compreso da quasi tutti coloro che hanno una qualche idea di quella sensazione confusa di fiducia. Se si parlasse di IA spiegabile o responsabile, solo una piccolissima frazione di persone capirebbe.

Così, mentre i termini "fiducia" e "affidabilità" sono soggetti a critiche legittime nel contesto dell'IA, possono anche essere benvenuti. Permettono a tutti di capire le ragioni principali della costruzione e dell'uso di questi complessi oggetti tecnologici e il loro impatto sulla società. Forse faremmo tutti meglio a prendere le cose in modo più rilassato e vedere l'IA affidabile come una visione piuttosto che una dichiarazione tecnicamente precisa.

Autori

Marisa Tschopp, psicologa, ricercatrice scip AG

Prisca Quadroni, avvocato, co-fondatrice Legal & Strategy Consulting AG

Marc Ruef, esperto di cybersecurity, responsabile della ricerca scip AG