Subject :

Why AI

Date :

5.11.21

Services : 

Healthcare and Medtech

AI-Regulations

Perché tanto clamore sulla fiducia e sull’affidabilità dell’IA?

Le leggi e le etichette etiche non risolvono il problema della fiducia. Tuttavia, richiedendo un’IA affidabile, promuovono la responsabilità e il corretto funzi

Come probabilmente avrete sentito o letto, in aprile la Commissione europea ha presentato una proposta di regolamentazione dell’intelligenza artificiale (IA), con l’obiettivo di consentire all’UE di raccogliere i benefici di questa tecnologia. In totale, le parole “fiducia” e “affidabilità” compaiono più di 100 volte nella proposta. Ciò solleva una domanda: comprendiamo davvero il ruolo della fiducia in relazione all’IA?

Che si tratti del Label svizzero per la fiducia digitale, della Trust Valley o del Center for Digital Trust, il tema della fiducia e del digitale è in voga, anche in Svizzera. Queste iniziative suggeriscono che la fiducia è un catalizzatore per il successo dell’IA. Eppure, la professoressa Joanna Bryson ritiene che: “Nessuno dovrebbe fidarsi dell’intelligenza artificiale”. Questo ci fa pensare a tutto il clamore che si fa sulla fiducia nell’IA o nel mondo digitale. La blockchain, l’industria delle criptovalute e le etichette risolveranno tutti i nostri problemi di fiducia? (Spoiler: no, no, più o meno).

Prima domanda: possiamo fidarci dell’IA? Risposta breve: sì. Risposta lunga: è complicato.

La questione se siamo davvero in grado di fidarci delle macchine è molto dibattuta tra coloro che hanno fede (“sì, è possibile!”) e coloro che dubitano (“non ci si può fidare delle IA!”). Noi siamo dalla parte di coloro che credono. Partiamo dal presupposto che la fiducia tra esseri umani può essere trasposta e che, sebbene diversa, è per molti versi simile alla fiducia che gli esseri umani dicono di avere nelle macchine.

Nelle relazioni umane, la fiducia può essere intesa come una strategia di fronteggiamento del rischio e dell’incertezza. Questa strategia assume la forma di una valutazione. Ad esempio, vengono esaminate le competenze della persona di cui ci si deve fidare. Allo stesso tempo, la persona che ripone la sua fiducia si trova in una posizione vulnerabile. Come in ogni relazione, c’è il rischio di essere feriti. In altre parole, non c’è fiducia senza rischio.

Questa vulnerabilità è altrettanto critica quando si tratta di fiducia tra uomo e macchina. Fidarsi di una tecnologia significa aspettarsi un certo risultato, un certo comportamento se la si usa. L’affidabilità di un sistema, le sue scarse prestazioni o i processi poco chiari e altri fattori possono alterare la fiducia riposta in esso. Fiducia e affidabilità sono quindi concetti distinti, purtroppo spesso confusi.

Tre cose sono quindi importanti da capire: la fiducia è un atteggiamento verso una terza parte umana o meccanica (1) che si suppone possa aiutare a raggiungere un obiettivo specifico (2) in una situazione di incertezza (3). Posso fidarmi di Amazon per la consegna puntuale del mio pacco, ma non per il rispetto della mia privacy.

Per tornare alla domanda posta, possiamo quindi rispondere che siamo effettivamente in grado di fidarci dell’IA in un contesto concreto. Ma è un motivo per farlo? Questa è un’altra domanda…

Seconda domanda: Dovremmo fidarci dell’IA? Risposta breve: No. Risposta lunga: È complicato.

Da un punto di vista pratico e normativo, la domanda se dovremmo fidarci dell’IA è molto più interessante, perché sposta la discussione sul tema dell’affidabilità. Mentre la fiducia è un atteggiamento umano e una variabile latente complessa in termini psicometrici, l’affidabilità è una questione molto più tecnica legata alle proprietà della tecnologia. Quando Joanna Bryson afferma che nessuno dovrebbe fidarsi dell’IA, il suo messaggio è molto chiaro: non usare i sistemi di IA (e molti altri sistemi) alla cieca.

Come esempio di fiducia cieca sbagliata, viene spesso citato il caso di un conducente di Tesla che ha perso la vita in un incidente perché stava giocando d’azzardo e non guardava affatto la strada, fidandosi completamente del sistema. Probabilmente non sapremo mai se l’incidente mortale è stato causato da un eccesso di fiducia, da promesse di marketing ingannevoli da parte del produttore, da una mancanza di intelligenza da parte del conducente o da una combinazione di tutti e tre i fattori. In ogni caso, educare le persone ad adottare una fiducia zero nelle macchine è molto probabilmente il modo più sicuro per evitare lesioni.

Non fidarsi e privarsi di un sistema che potrebbe dare risultati migliori non è una panacea. L’ideale sarebbe promuovere una “fiducia calibrata”, in cui l’utente adatta il suo livello di fiducia (se e come si fida) in base alle prestazioni del sistema in questione. A seconda, o nonostante, le prestazioni, dato che molte aziende sono note per esagerare o nascondere le reali capacità dei loro prodotti (le argomentazioni pubblicitarie dovrebbero essere messe alla prova).

Quindi, calibrare la nostra fiducia può salvare delle vite, ma in caso di incertezza e di rischio elevato nel rapporto uomo-macchina, è meglio adottare la fiducia zero (meglio prevenire che curare).

Terza domanda: Dovremmo smettere di parlare di fiducia? Risposta breve: sì. Risposta lunga: è complicato.

Secondo noi, quando si dice che non ci si deve fidare dell’IA, il messaggio più importante è: pensa prima di agire. Ma pensare è faticoso. Non sarebbe fantastico se potessi fidarmi ciecamente di un’azienda che rispetta la mia privacy e consegna i miei prodotti in tempo? Spiacente, ma la blockchain non è d’aiuto in questo caso e non provate nemmeno a far penzolare una cripto-soluzione davanti a noi. Un’etichetta può essere un buon inizio per tutte le cose che non sono regolamentate. Ma non stiamo complicando ulteriormente le cose aggiungendo un altro attore all’equazione della fiducia che già non comprendiamo appieno? Dovremmo studiare la fiducia nelle etichette come indicatore della fiducia nelle macchine in futuro?

In definitiva, la fiducia come atteggiamento è un argomento interessante per gli psicologi. Ma quando parliamo di macchine o funzioni, dovremmo usare i termini giusti e concentrarci sull’affidabilità, perché è ciò che possiamo controllare meglio.

Domanda successiva: Che dire della legge e della fiducia?

Le etichette sono utili per garantire l’affidabilità, ma le leggi non sono un’opzione migliore? Non dovremmo concentrare tutti i nostri sforzi su leggi e regolamenti? È questo il nostro unico vero indicatore di affidabilità? In primo luogo, sì: dovremmo impegnarci molto in leggi e regolamenti per garantire la responsabilità dei progettisti. In secondo luogo, no: l’equazione “legge e fiducia” è una risposta falsa. La ragione delle leggi non dovrebbe essere quella di aumentare la fiducia, ma piuttosto quella di promuovere la responsabilità e il corretto funzionamento della società. Lo scopo fondamentale di una legge è stabilire norme, mantenere l’ordine, risolvere controversie e proteggere libertà e diritti, non aumentare la fiducia nelle persone o nell’IA.

Conclusione: Non preoccuparsi dei dettagli

Le leggi e le etichette etiche non risolvono il problema della fiducia. Anzi, è possibile che la formula “più ci si fida, più si usa una tecnologia” non sia vera. Le persone si affidano ai prodotti meno affidabili per le ragioni più irrazionali: l’homo oeconomicus razionale è morto. Gli esseri umani di oggi apprezzano la convenienza e la socialità. Ci piacciono gli esseri umani, ci piace legare e, non avendo altre conoscenze comportamentali da mobilitare, umanizziamo anche le macchine.

Questo antropomorfismo non è così negativo, a patto che gli agenti non siano progettati di proposito per manipolare le persone. Certo, l’espressione “IA affidabile” è un linguaggio antropomorfo, ma ha il merito di comunicare un messaggio che viene immediatamente compreso da quasi tutti coloro che hanno un’idea di quella sensazione di fiducia. Se si parlasse di IA spiegabile o responsabile, solo una minima parte delle persone capirebbe.

Quindi, sebbene i termini “fiducia” e “affidabilità” siano soggetti a critiche legittime nel contesto dell’IA, possono anche essere accolti con favore. Permettono a tutti di comprendere le ragioni principali della costruzione e dell’utilizzo di questi complessi oggetti tecnologici e il loro impatto sulla società. Forse faremmo tutti meglio a prendere le cose in modo più rilassato e a vedere l’IA affidabile come una visione piuttosto che come un’affermazione tecnicamente precisa.

Similar talks

Overcoming the Challenges of AI Development in the Health Sector with Expert Guidance

The challenges to developing AI-based solutions in the health and medical sectors are significant yet navigable with the right combination of expertise.

IA e considerazioni legali

La prospettiva di introdurre l’IA in un’organizzazione solleva molte domande. Ecco le risposte ad alcune di esse.

Partnership con Modulos AG

Modulos AG e AI LSC uniscono le forze per fornire servizi di Trustworthy AI e Compliance in linea con le prossime normative AI.