Subject :

Why AI

Date :

14.03.22

Services : 

Healthcare and Medtech

AI-Regulations

AI affidabile – Le leggi possono creare fiducia nell’IA?

Un avvocato e uno psicologo discutendo il ruolo delle leggi e la fiducia nel contesto AI.

La proposta di regolamento sull’IA della Commissione europea è una proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce “norme armonizzate sull’intelligenza artificiale, legge sull’intelligenza artificiale” e modifica alcuni atti legislativi dell’Unione (pubblicata nell’aprile 2021). La sua relazione mira esplicitamente a implementare, tra l’altro, un ecosistema di fiducia proponendo un quadro giuridico per l’IA degna di fiducia e la parola fiducia viene citata più volte (14 trust, 1 trusted, 2 trustful, 21 trustworthy, 3 trustworthiness, 6 entrusted, 1 entrusting). Questo dato è piuttosto sorprendente dal punto di vista giuridico svizzero. Infatti, nel diritto svizzero, la fiducia (in tedesco: Vertrauen/ in italiano: Fiducia/ in francese: Confiance) non è mai menzionata, ad esempio, nel Codice Civile svizzero, nel Codice delle Obbligazioni, né nella Legge federale sulla responsabilità per danno da prodotti, che costituiscono basi giuridiche fondamentali. Tuttavia, iniziamo a vedere questa tendenza anche in Svizzera: Il secondo obiettivo chiave della “Strategia per la Svizzera digitale” è garantire sicurezza, fiducia e trasparenza. La fiducia sembra quindi diventare un aspetto importante per quanto riguarda l’IA, e il sistema di governance (ovvero le strutture e i processi progettati per garantire responsabilità, trasparenza, stato di diritto e ampia partecipazione) stesso, così come i regolatori che lo applicano, sembrano dover guadagnare la fiducia del pubblico (Sutcliffe & Brown, 2021). Ma di cosa parliamo esattamente quando parliamo di fiducia?

Credenti e scettici: La fiducia nei sistemi di intelligenza artificiale è un tema molto dibattuto.

L’ampio uso del costrutto di fiducia in un contesto normativo è stato accompagnato da critiche. Il tema della fiducia può essere affrontato in modo molto diverso a seconda della prospettiva. Alcuni, come Joanna Bryson, sostengono che “dell’IA non ci si può fidare”, in quanto i sistemi di IA non dovrebbero mai essere presentati come responsabili.

Altri hanno messo in dubbio che gli utenti possano effettivamente fidarsi del prodotto o del sistema, in quanto si tratta solo della delega del progettista o dello sviluppatore che ha ideato il prodotto. Inoltre, si discute su chi possa essere effettivamente percepito come affidabile o meno, il che si riferisce all’affidabilità, la proprietà del destinatario della fiducia. Questa potrebbe essere l’integrità per gli esseri umani o le prestazioni per le macchine. In un’autorevole rassegna sulla fiducia di Hoff & Bashir, si afferma che la fiducia tra uomo e automazione può essere vista come un tipo specifico di fiducia interpersonale in cui il fiduciario (cioè l’attore fidato) è a un passo dal fiduciante. Tuttavia, esistono anche argomenti a favore di una relazione di fiducia diretta tra uomo e tecnologia. Ad esempio, nel contesto dei veicoli automatizzati, potrebbe essere “l’automazione in uso ad avere fiducia in particolari situazioni”. Il tema della fiducia è davvero complicato e non si può trascurare nessuna delle due parti; entrambi i punti di vista hanno argomenti validi e, a prescindere dalla propria posizione, la fiducia dovrebbe essere sempre usata con cautela. Dal punto di vista dell’interazione uomo-Io, la fiducia come costrutto psicologico è indispensabile. Tuttavia, la fiducia è piuttosto problematica in un contesto normativo.

In questo articolo, noi – un avvocato e uno psicologo – cerchiamo innanzitutto di capire se e come la fiducia debba essere costruita in modo regolamentare. In secondo luogo, illustriamo il nostro punto di vista e concludiamo che la fiducia non è un termine adeguato nel contesto normativo, ma utile quando si tratta di comunicare al grande pubblico.

Le regole possono costruire la fiducia?

Secondo Hilary Sutcliffe, direttore della “Trust in Tech Governance Initiative”, e Sam Brown, “Director of Consequential”, sono tre i fattori che i regolatori dell’IA (come il governo e gli standard setter) devono implementare per essere considerati degni di fiducia e guadagnare così la fiducia del pubblico nel loro approccio:

Garantire un’applicazione efficace (cioè imporre l’osservanza o il rispetto di una legge, di una regola o di un obbligo),

Spiegare ciò che fanno e comunicare meglio il loro ruolo.

dare potere al cittadino e sviluppare relazioni inclusive con quest’ultimo.

I tre fattori sopra menzionati si riferiscono a una sorta di fiducia di sistema, cioè la fiducia nel sistema governativo e legale, e sono già in qualche modo implementati nel processo legislativo. A nostro avviso, la parola chiave sarà certezza del diritto, ossia sapere cosa ci si può aspettare, in particolare come le regole dell’AI saranno applicate dai giudici. L’applicazione deve essere uniforme e regolare nel tempo. Il cittadino deve sapere cosa aspettarsi e vedere che il suo caso sarà trattato allo stesso modo e avrà lo stesso risultato di un caso identico in un’altra parte del Paese. Se ogni Stato o Cantone applica efficacemente, ma in modo diverso, gli stessi casi, la fiducia nel sistema viene meno.

bq. Non crediamo quindi che le regole possano, per il solo fatto di esistere, creare fiducia.

Le regole dovrebbero creare fiducia?

Secondo Daniel Hult, docente presso la School of Business, Economics and Law dell’Università di Göteborg, il governo dovrebbe in ogni caso astenersi dal cercare di creare fiducia personale attraverso la legislazione. Ritiene che un obiettivo normativo più fattibile sia quello di incentivare il comportamento affidabile degli attori della società (perché sono più o meno costretti ad agire in un certo modo), che potrebbe generare fiducia nel sistema governativo e legale come effetto collaterale positivo. Aggiunge che se, in fin dei conti, l’obiettivo normativo prescelto è la fiducia personale, allora la legislazione non è una tecnica normativa adatta a costruire la fiducia. Si dovrebbero invece impiegare tecniche di regolamentazione meno vincolanti, ad esempio programmi di regolamentazione volontaria. Infatti, gli standard, le migliori pratiche o i marchi stabiliti da associazioni private non sono obbligatori e per questo motivo, se un’azienda sceglie di aderire volontariamente agli standard, apre la porta a una possibile fiducia nel suo comportamento.

Daniel Hult (2018) concorda quindi con gli ultimi due fattori indicati da Hilary Sutcliffe e Sam Brown. Coinvolgere il cittadino nel processo di regolamentazione è certamente una tecnica normativa meno controllante. Le regole, in particolare quelle obbligatorie, escludono qualsiasi necessità di fiducia.

Siamo d’accordo su questo punto: Anche se il legislatore volesse costruire la fiducia con le regole, sarebbe tempo perso.

Fiducia nella fiducia?

Tuttavia, questo non ha nulla a che fare con la fiducia psicologica nell’IA come atteggiamento degli esseri umani, che è ciò che questa nuova tendenza normativa sta cercando di ottenere. Inoltre, riteniamo che troppi trascurino l’importante differenza tra fiducia nell’IA e affidabilità dell’IA.

Nelle linee guida etiche per un’IA affidabile, la Commissione europea ha già definito in modo esaustivo e molto chiaro quali aspetti sono necessari per la creazione di un’IA affidabile (vedi riferimenti). Secondo questa linea guida, l’IA affidabile ha tre componenti che devono essere rispettate durante l’intero ciclo di vita del sistema:

Deve essere legale, rispettando tutte le leggi e i regolamenti applicabili;

deve essere etica, garantendo il rispetto dei principi e dei valori etici; e

deve essere robusto, sia dal punto di vista tecnico che sociale, poiché, anche con buone intenzioni, i sistemi di IA possono causare danni non intenzionali.

La linea guida definisce un quadro di riferimento per il raggiungimento di un’IA affidabile, elencando i requisiti che i sistemi di IA dovrebbero soddisfare e fornendo un elenco di valutazioni concrete volte a rendere operativi tali requisiti, ma non tratta esplicitamente la componente dell’IA lecita.

Questa componente è definita dalla proposta di regolamento europeo sull’IA (vedi riferimenti), che stabilisce i requisiti dell’IA per essere lecita. In particolare, la proposta definisce requisiti comuni obbligatori applicabili alla progettazione e allo sviluppo di alcuni sistemi di IA prima della loro immissione sul mercato, che saranno ulteriormente resi operativi attraverso standard tecnici armonizzati. La proposta affronta anche la situazione successiva all’immissione sul mercato dei sistemi di IA, armonizzando le modalità di esecuzione dei controlli ex-post.

D’altro canto, la strategia raccomandata dalla Svizzera al momento consiste principalmente nell’adattare la legislazione esistente (Christen et al, 2020) e nel coordinarsi con le definizioni europee di IA. Infatti, sebbene l’UE abbia definito una proposta di regolamentazione dell’IA, non bisogna dimenticare che non ci troviamo in un vuoto legislativo. Le leggi esistenti prevedono già norme che regolano le applicazioni dell’IA. Tuttavia, alcune definizioni, che sono esclusivamente incentrate sull’uomo, devono essere aggiornate per incorporare le azioni generate dalle macchine. Un esempio potrebbe essere l’adattamento della legge federale sulla responsabilità dei prodotti a questa tecnologia.

L’UE ha dato l’esempio e ha stabilito elementi importanti che la Svizzera valuterà attentamente, come ha fatto per l’aggiornamento della sua legge sulla protezione dei dati. Ora bisognerà vedere come la proposta di regolamento sull’IA dell’UE e le leggi svizzere riviste, una volta entrate in vigore, saranno applicate e, soprattutto, come saranno applicate nel tempo. Riteniamo che la sfida consisterà nel definire i primi passi e nel coordinare l’attuazione. Sarà importante anche la conoscenza di questa tecnologia non solo da parte dell’autorità di regolamentazione, ma anche da parte di tutti gli stakeholder e gli attori coinvolti, come la magistratura.

Conclusione

In poche parole, che la fiducia nell’IA possa seguire solo un’IA degna di fiducia, è una relazione ideale, lineare e purtroppo irrealistica. È piuttosto una missione o una visione, niente di più e niente di meno. Se dobbiamo fidarci dell’IA o se questa IA è degna di fiducia, sono in realtà domande molto sfumate, ma distinte. Forse in questi giorni è meglio adottare un approccio a fiducia zero, fino a quando un’azienda o uno sviluppatore non sarà in grado di dimostrare la propria affidabilità per guadagnarsi la fiducia dell’utente.

Riteniamo che lo scopo fondamentale di una legge sia ancora quello di stabilire norme, mantenere l’ordine, risolvere controversie e proteggere libertà e diritti, non di creare fiducia personale, né fiducia nell’IA in sé. Con un solido sistema legale e giudiziario in materia di IA, nel tempo potrebbe generarsi un sentimento di fiducia nell’IA come effetto collaterale positivo.

Avere una cultura della fiducia non sarebbe comunque un male. Non sarebbe fantastico se le persone potessero affidarsi ciecamente ai sistemi di IA? Sapendo che funzionano in modo affidabile, con le buone intenzioni degli sviluppatori, che sono sicuri, che trattano bene i dati personali e così via? Ma questo momento non è certo arrivato, e ci si interroga su quando e se questo giorno arriverà mai. Tuttavia, col tempo le persone capiranno meglio di cosa si tratta l’IA (o cosa non si tratta) e fino ad allora la legislazione proteggerà i più fragili (che non sono in grado di capire né di difendersi da soli), così come i ciechi (che si fidano ciecamente) ottimisti della tecnologia, affinché non si facciano ingannare e affinché qualcuno possa essere ritenuto responsabile se le cose vanno male.

Autore

Questo articolo è stato scritto da “Prisca Quadroni-Renella”, avvocato svizzero e socio fondatore di “AI Legal & Strategy Consulting AG” e responsabile legale di Women in AI, in collaborazione con Marisa Tschopp.

Riferimenti

  • Daniel Hult (2018) Creating trust by means of legislation – a conceptual analysis and critical discussion, The Theory and Practice of Legislation, 6:1, 1-23, DOI: 10.1080/20508840.2018.1434934.
  • Linee guida etiche per un’IA affidabile, Gruppo di esperti di alto livello sull’intelligenza artificiale, 8 aprile 2018.
  • Relazione della proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, 21 aprile 2021.
  • Christen M., Mader C., Abou-Chadi T., Bernstein A., Braun Binder N., Dell’Aglio D., Fábián L., George D., Gohdes A., Hilty L., Kneer M., Krieger-Lamina J., Licht H., Scherer A., Som C., Sutter P., Thouvenin F. (2020). Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz, In TA-SWISS Publikationsreihe (Hrsg.): TA 72/2020. Zurigo: Vdf

Similar talks

Overcoming the Challenges of AI Development in the Health Sector with Expert Guidance

The challenges to developing AI-based solutions in the health and medical sectors are significant yet navigable with the right combination of expertise.

IA e considerazioni legali

La prospettiva di introdurre l’IA in un’organizzazione solleva molte domande. Ecco le risposte ad alcune di esse.

Partnership con Modulos AG

Modulos AG e AI LSC uniscono le forze per fornire servizi di Trustworthy AI e Compliance in linea con le prossime normative AI.