Subject :

Why AI

Date :

25.10.22

Services : 

Healthcare and Medtech

AI-Regulations

KI – Praktische Fragen der Haftung

Dieser Artikel befasst sich mit bestimmten rechtlichen Aspekten des Einsatzes von KI, die für die Klärung von Haftungsfragen von Interesse sind.

Obwohl AI in der Schweiz nicht reguliert ist, wirft sie aus haftungsrechtlicher Sicht mehrere Fragen auf.

I. Einführung

A. Eine Arbeitsdefinition von künstlicher Intelligenz

Der Begriff der künstlichen Intelligenz (KI) ist ein alter Begriff, der einem ständigen Wandel unterworfen ist. Auf kommerzieller Ebene wurden sehr einfache Systeme als KI bezeichnet, während die Technologie heute meist als Synonym für Systeme verwendet wird, die auf „tiefen neuronalen Netzen“ basieren. Je nach Land oder Institution enthält die Definition unterschiedliche Kernelemente.1 Für die Zwecke dieses Artikels wird KI daher allgemein als ein softwarebasiertes System bezeichnet, das in der Lage ist, komplexe Probleme zu lösen, die bisher dem Menschen vorbehalten waren. 2 Zu diesem Zweck gibt es mindestens zwei Elemente, die, ohne sie allgemein zu definieren, in der aktuellen juristischen Literatur oft große Bedeutung haben: die Fähigkeit zu lernen3 und die Fähigkeit, mit einem gewissen Grad an Autonomie zu handeln.4 Um relevante praktische Aspekte nicht zu vernachlässigen, wird keine engere Definition von KI verwendet. Dieser Artikel konzentriert sich auf bestimmte rechtliche Aspekte des Einsatzes von KI, die für die Klärung von Haftungsfragen von Interesse sind.

B. Praktische Probleme bei Haftungsfragen

Unabhängig von der Definition von KI gibt es meines Erachtens mehrere Merkmale, die dieser Technologie gemeinhin zugeschrieben werden und die für Haftungsfragen von Bedeutung sind. Diese lassen sich in vier Kategorien zusammenfassen: (i) die Fähigkeit, flexibel eingesetzt zu werden; (ii) die Fähigkeit, autonom zu handeln; (iii) die Fähigkeit, kontinuierlich zu lernen; und (iv) die Fähigkeit, Schlussfolgerungen aus einer großen Menge von Daten zu ziehen.

  1. Die Fähigkeit, flexibel eingesetzt zu werden

Klassische Computerprogramme sind sehr präskriptiv: Jede mögliche Option muss explizit in die Software einprogrammiert werden, damit sie funktioniert. Wenn das Computerprogramm auf eine unerwartete Situation stößt, funktioniert es nicht mehr, grob gesagt. Bei KI-basierten Lösungen hingegen lernt die KI anhand von Beispielen, eine Aufgabe zu verallgemeinern, so dass sie in der Lage ist, eine unendliche Anzahl verschiedener Situationen flexibel zu bewältigen, ohne jede einzelne Möglichkeit vorwegnehmen und vorprogrammieren zu müssen.5 Bei der Entwicklung von KI-Modellen6 wird ein System mehrmals trainiert und getestet, bis eine zufriedenstellende Korrektheit erreicht ist. Wird jedoch beim Training Perfektion erreicht, so ist dies fast immer ein Zeichen für einen grundlegenden Fehler, nämlich „Overfitting“. Das heißt, es hat die Beispiele „auswendig“ gelernt oder einen sehr starren Ansatz erlernt und kann daher künftige Anwendungsfälle, die auch nur geringfügig von den beim Training verwendeten Beispielen abweichen, falsch behandeln.7 Da diese Verallgemeinerbarkeit letztlich als ein sehr komplexer statistischer Ansatz angesehen werden kann, besteht der Nachteil darin, dass man weniger Kontrolle darüber hat, wie Grenzfälle, neue Fälle oder Ausnahmefälle behandelt werden. Während man also bei klassischen Programmen im Voraus mit Sicherheit sagen kann (und muss), wie jeder Fall behandelt wird, gibt es bei KI-basierten Lösungen immer eine Fehlermarge, die berücksichtigt werden sollte. Um die Tatsache abzumildern, dass reine KI von Natur aus fehleranfällig oder potenziell unvorhersehbar ist (obwohl sie zugegebenermaßen oft weniger fehleranfällig ist als der durchschnittliche Mensch), wird sie daher mit klassischer Codierung gekoppelt, die ihre Funktionalität unterstützt.

  1. Die Fähigkeit zum autonomen Handeln

Eine der grundlegenden Funktionen der Computerisierung und der Computerprogramme bestand schon immer darin, menschliche Aufgaben zu beschleunigen und zu automatisieren. Dank der bereits erwähnten Fähigkeit von KI-basierten Systemen, flexibel mit Eingaben umzugehen und somit sehr komplexe Aufgaben in einer Weise zu erfüllen, die den Fähigkeiten eines Menschen ähnelt oder sie sogar übertrifft, wird Maschinen zunehmend zugetraut, autonom über die beste Vorgehensweise zur Erfüllung der zugewiesenen Aufgaben zu entscheiden. Aufgrund dieser Vorstellung, dass das Computerprogramm autonom ist, wird auch die Kausalkette zwischen den Handlungen des KI-basierten Systems und seinem Benutzer als schwächer empfunden.8

  1. Die Fähigkeit zum kontinuierlichen Lernen

Bei traditionell programmierten Computerprogrammen muss jede Anpassung im Voraus durchdacht und explizit einprogrammiert werden. Ändern sich die Umstände, unter denen die Software eingesetzt wird, muss das Computerprogramm manuell angepasst werden. KI-gestützte Systeme hingegen können aus Erfahrungen lernen, d. h. die bei der Ausführung der ihnen zugewiesenen Aufgaben gesammelten Informationen können genutzt werden, um diesen Systemen beizubringen, die Aufgaben besser auszuführen und sich an veränderte Umstände anzupassen. Dies schwächt die gefühlte Verbindung zwischen dem Programmierer und dem Ergebnis des KI-basierten Systems weiter ab.9

  1. Die Fähigkeit, Schlussfolgerungen aus einer großen Datenmenge zu ziehen

Eine der transformativen Fähigkeiten der KI-Technologie ist die Fähigkeit, aus einer großen Datenmenge automatisch Schlüsse und Zusammenhänge zu ziehen und dieses Wissen zur Bewältigung einer Aufgabe zu nutzen. Auf diese Weise können Probleme angegangen werden, die bisher aufgrund ihrer Komplexität als zu schwierig galten.10 KI ist in der Lage, selbstständig Lösungen für bestimmte Probleme zu finden oder aus Daten mit größerer Sicherheit Vorhersagen über die Zukunft zu treffen. Da sich die Herangehensweise eines KI-Systems von der eines Menschen unterscheidet, kann dasselbe System einen hohen Grad an Korrektheit erreichen, aber dennoch Fehler machen, die selbst für einen Laien offensichtlich sind. Es wurde bald deutlich, dass die von der KI zu diesem Zweck verwendeten Daten nicht nur das Potenzial haben, grundlegende kausale Zusammenhänge und wissenschaftliche Regeln des zu lösenden Problems zu erkennen, sondern auch eine große Menge unbedeutender Korrelationen, eingebetteter Voreingenommenheit und falscher Vorstellungen sowie schlechter Gewohnheiten enthalten. Diese beeinträchtigen die Funktionsweise von KI-Systemen und können zu unerwünschten Ergebnissen führen.11 Diese Erkenntnis verändert die Bedeutung von Daten grundlegend. Im Gegensatz zu klassischen Computerprogrammen, bei denen die Codierung im Mittelpunkt steht, erfordert die Entwicklung von KI-basierten Systemen auch eine bisher wenig bekannte Pflege der zugrunde liegenden Daten.

II. Haftungsfragen

KI kann in der Praxis auf sehr unterschiedliche Weise eingesetzt werden und berührt die meisten Bereiche unseres Lebens. Kommt es zu einem Schaden, besteht in den meisten Fällen ein Vertragsverhältnis zwischen dem Geschädigten und dem Verursacher oder der Sachverhalt unterliegt besonderen haftungsrechtlichen Normen, so dass die konkreten Umstände des Einzelfalles zu berücksichtigen sind. Dennoch lohnt es sich, die speziellen Haftungsfragen der Deliktshaftung zu untersuchen, da diese die meisten rechtlichen Grundfragen des Haftungsrechts abdecken.

A. Deliktische Haftung

Die deliktische Haftung nach Art. 41 OR gilt als Auffangnorm für die zivilrechtliche Haftung im Deliktsrecht. Um die Haftung zu begründen, müssen folgende Punkte nachgewiesen werden: der Schaden, die Rechtswidrigkeit der Schadenszufügung, der (adäquate) Kausalzusammenhang, das rechtswidrige Verhalten des Schädigers und sein Verschulden.

  1. Schaden und Rechtswidrigkeit

Im Rahmen der deliktischen Haftung wird der relevante Schaden in der Regel als Schädigung eines absolut geschützten Rechtsgutes, d.h. von Personen und Sachen, definiert. Ebenfalls relevant sind reine Vermögensschäden, für die es eine Schutznorm gibt.12 Diese beiden haftungsrechtlichen Aspekte sind bei Schäden durch KI nicht sehr speziell und werden daher nicht weiter diskutiert.

  1. Kausalzusammenhang

a. Autonomie eines KI-Systems

Bei KI-Anwendungen ist der Aspekt der Identifizierung der verantwortlichen Person und damit der Bestimmung eines Schädigers besonders schwierig. Zunächst ist der Aspekt der Autonomie von Systemen zu berücksichtigen, die autonom handeln können (d.h. gemäß ihrer eigenen Programmierung in einer rechtlich relevanten Weise handeln). In diesen Fällen stellt sich die Frage, ob ein KI-System einen solchen Grad an Autonomie erreichen kann, dass niemand mehr für seine Handlungen verantwortlich gemacht werden kann. Die Antwort ist grundsätzlich negativ, da immer mindestens eine Person identifiziert werden kann, die für die Schaffung eines KI-basierten Systems und seiner Fähigkeiten verantwortlich ist, und eine Person, die für seine Nutzung verantwortlich ist.13 Es können verschiedene Szenarien beschrieben werden, die den Grad der menschlichen Kontrolle über autonome KI-Systeme beschreiben, wenn sie eingesetzt werden, und die bei der Zuweisung von Haftung helfen können:14

  • Mensch in der Schleife: Hier ist ein Mensch als Verantwortlicher und Entscheidungsträger in das System eingebunden. Das bedeutet, dass das KI-System in zwei Teile unterteilt werden kann: Der erste Teil, der durch die KI geprägt ist, ist ein Entscheidungsunterstützungssystem, das die beste Vorgehensweise oder Handlungsoptionen vorschlägt. Die Person trifft dann die Entscheidung, eine bestimmte Handlung vorzunehmen oder nicht vorzunehmen. Der zweite Teil des Systems ist die anschließende Ausführung der beschlossenen Handlung, die berechenbar sein sollte und damit der Zurechenbarkeitsproblematik eines klassischen Computerprogramms entspricht. Wenn trotz der Beteiligung einer Person die Folgen der Entscheidung dieser Person nicht bestimmt werden können, weil wiederum ein KI-System beteiligt ist, entspricht dieser zweite Teil des Falles einer der nächsten Kategorien.
  • Mensch in der Schleife: Hier ist ein Mensch sowohl an der Umsetzung als auch an der Überwachung der Aktivitäten des KI-Systems beteiligt. Das KI-System kann die ihm zugewiesene Aufgabe grundsätzlich selbständig ausführen. Der Mensch muss nicht jede einzelne Aktion genehmigen oder bestimmen, sondern überwacht regelmäßig die Aktivitäten des KI-basierten Systems und kann bei Bedarf eingreifen, wenn Probleme erkannt werden. Der grundlegende Unterschied zwischen „in the loop“ und „on the loop“ besteht also darin, dass der Mensch im ersten Fall eine Entscheidungsfunktion hat, während er im zweiten Fall eine reaktive Überwachungsfunktion hat.
  • Mensch aus der Schleife: In diesem Fall läuft das KI-System bei jedem Vorgang völlig autonom, so dass die Möglichkeit des Eingreifens eines Menschen begrenzt ist. Im Prinzip greift der Mensch nicht in die Ausführung der zugewiesenen Tätigkeit ein. Dies ist der Fall, wenn das System auf der Grundlage einer vortrainierten KI agiert, aber auch, wenn die KI anhand der während des Einsatzes gesammelten Erfahrungen eigenständig trainiert wird.

Bei „human in the loop“ ist eine identifizierbare Person in der Lage, die Aktion des KI-basierten Systems zu bestimmen. Dies ist in der Regel der Fall, wenn das KI-basierte System die Vorarbeit für den Menschen leistet. Diese Art der Nutzung wird in der Praxis gewählt, wenn die KI nur einfache mechanische Vorarbeiten leisten soll, wie z. B. das automatische Extrahieren von Informationen aus einem Dokument, in Situationen, in denen das Risiko eines Schadens hoch ist, wie z. B. bei der Erstellung einer Diagnose, oder in komplexen Situationen, in denen die Lösung eine Mischung aus maschinellen und menschlichen Fähigkeiten erfordert, wie z. B. bei der Analyse einer komplexen Marktsituation, um eine Investitionsentscheidung zu treffen. Die Haftung des Nutzers kann gemildert oder ausgeschlossen werden, wenn das Programm fehlerhaft ist15 oder wenn der Nutzer nicht in der Lage ist, die Folgen seiner Entscheidung zu erkennen oder die von der KI vorgeschlagene Lösung kritisch genug zu prüfen.16 Die Gründe für die letztgenannte Möglichkeit liegen oft nicht in der Art der verwendeten KI-Technologie (da sie bereits einen Beitrag geleistet hat, bevor die Person eine Entscheidung trifft), sondern vielmehr in der mangelnden Information, der mangelnden Ausbildung der Person, die „in the loop“ ist, oder der Nachlässigkeit der Person, die trotz ausreichender Ausbildung oder Schulung nicht über die erforderlichen Fähigkeiten verfügt, um ihre Rolle zu erfüllen.

Beim „human on the loop“ ist das System grundsätzlich in der Lage, selbständig zu handeln, wird aber von einer Person überwacht. Dies geschieht in der Regel, um anhaltende Risiken zu beseitigen, die trotz einer bestimmungsgemäßen Nutzung des KI-Systems oder im Rahmen eines vernünftigerweise vorhersehbaren Missbrauchs auftreten können.17 Die Zurechenbarkeit eines Schadens hängt von der Einflussmöglichkeit der überwachenden Person ab. Ein Verschulden der Aufsichtsperson kann vorliegen, wenn sie es trotz Pflicht und Möglichkeit zum Handeln nicht schafft, das Fehlverhalten des KI-basierten Systems zu unterbrechen oder zu verhindern und dessen Schaden zu mindern oder gar sofort rückgängig zu machen.18 Kommt es jedoch trotz pflichtgemäßen Verhaltens der Aufsichtsperson zu einem Schaden durch das KI-Fehlverhalten, muss das Verschulden und damit ein Verantwortlicher an anderer Stelle gesucht werden. Dies ist in der Regel der Anbieter der KI-Lösung. Gibt es keine Anhaltspunkte dafür, dass der Anbieter aufgrund eines KI-Fehlers verantwortlich ist, kann die Lehre von der allgemeinen Risikotheorie zu Hilfe kommen19 , so dass der Nutzer oder der Eigentümer des Systems, je nachdem, wer die beste Möglichkeit gehabt hätte, den Schaden zu vermeiden, dennoch als Verantwortlicher angesehen werden kann.

Mit „human off the loop“ wird das System im Grunde sich selbst überlassen, um seine Aufgabe zu erfüllen. Diese Konstellation wird häufig im Zusammenhang mit autonomen Waffen und den damit verbundenen Bestrebungen zu deren Verbot diskutiert,20 ist aber besser bekannt für den Einsatz autonomer Fahrzeuge sowie die Automatisierung bestimmter Prozesse. Hier ist ein menschliches Eingreifen während des Betriebs des KI-basierten Systems grundsätzlich nicht vorgesehen, es sei denn, es erfolgt, um das Ziel der Maschine anzupassen (man denke an ein autonomes Auto, bei dem das Ziel vor dem Ende der Fahrt angepasst werden kann). Dabei kann den Nutzer des KI-gestützten Systems, also die Person, die die Aktivität des KI-gestützten Systems initiiert hat, grundsätzlich nur dann ein Verschulden treffen, wenn das angestrebte Ziel oder der Einsatz des vollautonomen KI-Systems selbst pflichtwidrig ist. So ist die Nutzung eines solchen Systems pflichtwidrig, wenn das KI-gestützte System nicht sicher genutzt werden kann (z.B. ein Fahrzeug ist nicht in der Lage, Menschen zuverlässig zu erkennen und auszuweichen),21 wenn notwendige Sicherheitsmaßnahmen nicht vorgesehen sind (z.B. keine Begrenzung der Transaktionsfähigkeit eines automatisierten Handelssystems) oder wenn die Nutzung des KI-Systems durch Personen ermöglicht wird, die nicht in der Lage sind, die Gefahren zu erkennen und angemessen zu beseitigen (z.B., Bereitstellung eines Diagnosesystems für nicht fachlich geschulte Personen).22 Meines Erachtens kann die Zulässigkeit des Einsatzes eines vollautonomen KI-basierten Systems nicht einfach unterstellt werden, wenn keine angemessene Sorgfalt im Hinblick auf das Schadenspotenzial erforderlich ist.

Es mag relativ einfach sein, anhand der vorgenannten Kategorisierung den Kausalzusammenhang zwischen der KI-Anwendung und ihrem Nutzer bzw. Anbieter herzustellen.23 Schwieriger ist es jedoch im Einzelfall, diesen Kausalzusammenhang weiter zu entwickeln, also eine mögliche technisch fehlerhafte Ursache zu identifizieren. Insbesondere muss analysiert werden, was in der Kausalkette passieren kann, um weitere Personen zu identifizieren, die potenziell für einen Schaden verantwortlich gemacht werden können.

b. Transparenz einer KI-Software

Generell lässt sich sagen, dass der Verursacher des Schadens entweder als Nutzer oder als Programmierer identifiziert werden kann, wenn die Funktionsweise eines klassischen Computerprogramms direkt von seiner Kodierung abhängt.24 Eine KI-Anwendung hingegen ist das Ergebnis der Kombination von Software (die der klassischen Kodierung entspricht) und den Daten, mit denen sie trainiert wurde. Beide Faktoren spielen eine entscheidende Rolle und können oft mindestens zwei verschiedenen Personen zugeschrieben werden. Das bedeutet, dass sich die Zahl der möglichen Täter in relevanter Weise erweitert, was wiederum bedeutet, dass der zu klärende Sachverhalt komplexer wird.25

Auf der Datenseite ist es aufgrund der Tatsache, dass die einzelnen Daten nur einen Bruchteil der Funktionsweise der KI-Anwendung beeinflussen, schwierig festzustellen, welcher Datensatz und in welchem Umfang das System zu dem rechtsverletzenden Ergebnis geführt hat.26 Diese sind schwer zu lokalisieren und zu identifizieren. Die Grundlage eines KI-Systems kann ein von einem Dritten bereitgestelltes, vorab trainiertes allgemeines Modell (oder Modelle) sein, für das die zum Training verwendeten Datensätze nicht bereitgestellt werden. Dann können proprietäre Datensätze verwendet werden, um das Modell an die eigenen Zwecke anzupassen. Schließlich wird das Modell häufig anhand neu erhobener Daten trainiert und aktualisiert. Aus Datenschutzgründen sind die Daten für das kontinuierliche Training des Systems oft nicht oder nur in verschlüsselter Form verfügbar.27

Was die Codierung betrifft, so stützt sich die KI-Entwicklung heute, wie bei jeder modernen Software, in der Regel auf viele verschiedene, öffentlich zugängliche Ressourcen, die sehr komplex sind.28 Selbst der Code, der eine funktionierende Anwendung ermöglicht, kann Millionen von Codezeilen aus verschiedenen Quellen umfassen, so dass im Einzelfall die Rückverfolgbarkeit eines Fehlers nahezu unmöglich sein kann.29

In jüngster Zeit hat sich die Diskussion um die Erklärbarkeit und Nachvollziehbarkeit von KI-Anwendungen so entwickelt, dass derzeit viele Good Practices und Services entwickelt werden, die versuchen, die Entscheidungsfaktoren einer KI transparent zu machen und damit zu erklären, wie sie funktionieren (sogenannte „explainable AI“ und „interpretable AI“).30

Trotz dieser begrüßenswerten Entwicklung wird es für den Geschädigten nahezu unmöglich, die tatsächliche Ursache des schädigenden Ereignisses nachzuweisen, da dies den uneingeschränkten Zugang zu allen vorhandenen Logdateien, zur Codierung der Software und, wenn nichts anderes zur Verfügung steht, das die Transparenz der KI gewährleistet, zu den als Training verwendeten Daten erfordert.31

Bei fehlender Transparenz des Systems kommt die Lehre der allgemeinen Risikotheorie zu Hilfe, da nicht genau gesagt werden kann, was die Ursache des Schadens ist.32 Nach dieser Lehre muss derjenige, der einen gefährlichen Zustand schafft, unterhält oder sonst rechtlich zu vertreten hat, alle erforderlichen und zumutbaren Schutzmaßnahmen ergreifen, die geeignet sind, die Beeinträchtigung geschützter Rechtsgüter zu vermeiden.

Folgt man der Argumentation, dass KI ihrem Wesen nach das Potenzial hat, unerwartet zu wirken, und dass dies negative Auswirkungen auf rechtlich absolut geschützte Güter (wie Eigentum, Leben oder Gesundheit) haben kann, so hat der Nutzer bzw. der Anbieter eine Pflicht zur Schadensminderung. Meines Erachtens ist der Geschädigte daher nicht verpflichtet, die Kausalkette weiter als der Anbieter zu beweisen, um seinen Anspruch aus Art. 41 OR GELTEND ZU MACHEN. Er muss nur nachweisen können, dass der Anbieter nicht die erforderlichen Sorgfaltsmassnahmen zur Schadensminderung getroffen hat.

Dieser Ansatz setzt voraus, dass man trotz eines großen Erfolgs eines KI-basierten Systems Sicherheitseinschränkungen vornehmen muss. Diese Haltung wird durch die Diskussion über den Einsatz von KI bestätigt. Die Grenze dieser Haftung ist die Doktrin des zulässigen Risikos. Nach dieser Lehre kann „eine nicht über das allgemeine Lebensrisiko hinausgehende Gefährdung von Rechtsgütern anderer nicht verboten, sondern nur die Einhaltung eines gewissen Mindestmaßes an Sorgfalt und Rücksichtnahme verlangt werden. Bei einem zulässigen Risiko tritt an die Stelle des Verbots jeglicher Gefahr die Forderung, die Gefahr auf das nicht oder nur mit unverhältnismäßigem Aufwand auszuschließende Minimum zu beschränken, wenn die entsprechende Tätigkeit überhaupt erlaubt werden soll. Dabei geht es um die Frage, welche Risiken generell in Kauf zu nehmen sind und nicht um eine Reduzierung der Sorgfaltspflichten. Eine Verletzung der Sorgfaltspflicht ist nur dann anzunehmen, wenn der Täter eine Gefährdung der Rechtsgüter des Opfers vorhersehen konnte oder hätte vorhersehen müssen. Bei der Beantwortung dieser Frage gilt der Maßstab der Angemessenheit. Danach muss das Verhalten des Täters nach dem gewöhnlichen Lauf der Dinge und den Erfahrungen des Lebens geeignet sein, einen Erfolg wie den eingetretenen herbeizuführen oder zumindest zu begünstigen. Damit der Eintritt des Ergebnisses dem Täter zugerechnet werden kann, reicht seine bloße Vorhersehbarkeit nicht aus. Vielmehr stellt sich die weitere Frage, ob er auch vermeidbar war. Dazu wird ein hypothetischer Kausalverlauf untersucht und geprüft, ob der Erfolg bei pflichtgemäßem Verhalten des Täters nicht eingetreten wäre. Für die Zurechnung des Erfolgs ist es ausreichend, wenn das Verhalten des Täters mit zumindest hoher oder an Sicherheit grenzender Wahrscheinlichkeit für den Erfolg ursächlich war“.33

  1. Verschulden

a. Verschulden des Benutzers (Human in the loop)

Um ein Verschulden festzustellen, muss eine Sorgfaltspflicht verletzt worden sein34. In diesem Zusammenhang stellt sich die Frage, wer zwischen dem Nutzer und dem Anbieter einer KI-Lösung tatsächlich haftet, wenn die Verletzung der Sorgfaltspflicht darin besteht, dass die erforderlichen Maßnahmen zur Schadensvermeidung unterlassen wurden. Insbesondere stellt sich die Frage, ob eine Handlungspflicht begründet werden kann und wie der Geschädigte die Verletzung dieser beweisen kann.

  1. DER MENSCH IN DER SCHLEIFE

Bei KI-basierten Systemen, bei denen ein Mensch die Entscheidungsfunktion behält, müssen sowohl die objektive als auch die subjektive Seite des Verschuldens erfüllt sein, damit die Handlungen des Systems diesem Menschen zugerechnet werden können.35

Auf der subjektiven Seite muss die Person in der Lage sein, die Folgen ihres Handelns zu verstehen und anders zu handeln.36 Dieser Aspekt kann von Bedeutung sein, wenn eine Person ein KI-Produkt verwendet, ohne in der Lage zu sein, die vom KI-System vorgeschlagenen Optionen kritisch zu bewerten. In diesem Fall ist die Person dann nicht in der Lage, das Schadenspotenzial zu erkennen. Dies gilt jedoch nur, solange diese Situation nicht selbst verschuldet ist (sog. Annahmeverschulden), indem die Person eine Tätigkeit übernimmt, für die sie nicht ausreichend qualifiziert ist.37

Auf der objektiven Seite muss der Nutzer die Sorgfalt walten lassen, die ein vernünftiger Dritter in der gleichen Situation angewandt hätte, um diesen vorhersehbaren Schaden zu vermeiden. Der Nutzer müsste also sowohl bei der Auswahl der Lösung und des Anbieters als auch bei der Anwendung der KI-basierten Lösung angemessene Sorgfalt walten lassen. Dazu gehören unter anderem eine Risikoanalyse der Nutzung des KI-basierten Systems und die Umsetzung der sich daraus ergebenden angemessenen Maßnahmen, die sehr unterschiedlich ausfallen können, wenn es sich bei dem Nutzer um einen Verbraucher oder ein großes Unternehmen handelt.38 Es ist wichtig zu beachten, dass der Nutzer kein KI- oder IT-Spezialist sein muss, wenn er externe Lösungen nutzt. Er muss jedoch in der Lage sein, dem KI-Anbieter seine Anforderungen so weit zu erläutern, dass dieser die notwendigen technischen Schritte einleiten und für eine angemessene Schulung sorgen kann.39 Da der Nutzer in der Entscheidungsposition sein muss, muss er auch sicherstellen, dass er entweder in der Lage ist, die Korrektheit des Funktionierens des KI-Systems zu beurteilen, oder dass er über einen angemessenen Sicherheitsrahmen verfügt, um mögliche Schäden zu verhindern. Ist dies nicht der Fall, kann er wegen eines Vermutungsfehlers verantwortlich sein.40

Diese Anforderungen können schwer zu erfüllen sein, wenn ein KI-System implementiert wird, das die beste Lösung besser als ein Mensch finden soll, für die es aber keine nachvollziehbare Erklärung gibt. In diesen Fällen sollte der Mensch als Entscheidungsträger eingesetzt werden, um Fehler im KI-System zu korrigieren, die für den Menschen offensichtlich sind, für die Maschine aber nicht. In diesen Fällen entscheidet er dann, ob die vorgeschlagene Lösung akzeptabel ist. Die Frage, inwieweit das Vertrauen in eine Maschine entlastend ist, hängt meines Erachtens sowohl von der nachgewiesenen Effektivität des Systems als auch von den angewandten Sicherheitsmaßnahmen, einschließlich der Qualifikation des Entscheidungsträgers, ab. Je größer das Risiko einer Fehlentscheidung ist, desto höher sind die Anforderungen an die überwachende Person.

  1. MENSCH IN DER SCHLEIFE

Eine ähnliche Situation ergibt sich, wenn eine Person nur eine Überwachungsfunktion hat, aber hier ist die Person oft nicht dafür verantwortlich, alle Einzelentscheidungen des Systems zu überprüfen, sondern nur dafür, eine Situation zu erkennen, die von der beabsichtigten abweicht, und einzugreifen, um möglichen Schaden durch eine Fehlentscheidung zu vermeiden. Die Person muss also nicht auf demselben Gebiet kompetent sein wie das KI-System, sondern nur in der Lage sein, schädliches Verhalten oder Situationen mit Schadenspotenzial zu erkennen und entsprechend einzugreifen.

  1. MENSCH AUS DER SCHLEIFE

Wenn das KI-gestützte System völlig autonom ist, muss der Benutzer objektiv alle angemessenen Sicherheitsmaßnahmen ergriffen haben, um Schaden zu vermeiden. Wie diese Maßnahmen konkret aussehen, hängt von den Umständen der Nutzung ab.

Auf der subjektiven Seite muss die Person in der Lage sein, die Folgen ihres Handelns zu verstehen und anders zu handeln. Dieser Aspekt kann dann relevant sein, wenn eine Person ein KI-Produkt nutzt und von ihr nicht erwartet werden kann, dass sie eine Fehlfunktion des KI-gestützten Systems in Betracht zieht. Dies könnte zum Beispiel der Fall sein, wenn eine Drohne mit einer KI-Steuerungsfunktion ausgestattet ist und gegen eine Person fliegt, weil die Drohne diese nicht als Hindernis erkennt. Ist dies der Fall, kommt häufig entweder die Produkthaftung oder ein anderes spezielles Haftungsrecht ins Spiel, das das Risiko eines körperlichen Schadens anders verteilt als die normale Deliktshaftung.

b. Verschulden des Anbieters

Natürlich kann nicht nur den Nutzer ein Verschulden treffen, sondern auch den Anbieter, der die Verantwortung für die Entwicklung der KI-Lösung trägt. Der Anbieter muss sicherstellen, dass bei der Entwicklung der KI-Lösung mit angemessener Sorgfalt vorgegangen wurde.

Der Grad der objektiv anzuwendenden Sorgfalt hängt in erster Linie vom Verwendungszweck sowie von den zugesicherten Eigenschaften ab.

Da es sich bei KI noch um eine neue und sich schnell entwickelnde Wissenschaft handelt, ist es schwierig, bewährte Praktiken zu ermitteln, die in einem bestimmten Fall angewendet werden können und als Grundlage für die Bestimmung einer ausreichenden Sorgfaltspflicht bei der Entwicklung dienen.41 Da es sich bei KI um Software handelt, können etablierte Standards wie ISO-Normen als Hilfsmittel verwendet werden.42 Derzeit wird unter anderem in der EU eine umfassende Diskussion über die Regulierung von KI geführt. Insbesondere wurde eine Regulierung auf europäischer Ebene vorgeschlagen, um Grundsätze für die Anforderungen an eine ausreichende Betreuung festzulegen. Flankiert wird dies durch ethische Leitlinien, die ethische Anforderungen an die Entwicklung von KI stellen. Es gibt bereits Normen für KI-Technologien und andere Normungsinitiativen, wie die ISO-Initiative, die sich mit KI befassen.43 Bei all diesen Normen stellt sich dann die Frage, da sie oft keine Gesetzeskraft haben, wie schnell und in welchem Umfang ein KI-Anbieter oder -Entwickler diese Anforderungen umsetzen sollte, da deren Verfolgung und Umsetzung mit einem hohen Aufwand verbunden ist, der wiederum die Entwicklung und Anwendung von KI-basierten Systemen behindern kann. Auch hier handelt es sich um eine Frage des Werturteils, die von den jeweiligen Umständen abhängt.

Im Allgemeinen müsste der Anbieter der KI-Lösung die gebotene Sorgfalt walten lassen, um sicherzustellen, dass er bei der Entwicklung seines Tools die damals geltenden Best Practices befolgt hat (und die heute geltenden, wenn er für die Wartung der Software verantwortlich ist, was heutzutage eher die Regel als die Ausnahme ist), so dass die KI-Anwendung nicht mit gefährlichen Fehlern behaftet ist, und dass er alle angemessenen Sicherheitsmaßnahmen ergriffen hat, um das Schadenspotenzial eines Fehlers in der KI-Lösung zu verringern.

Es sei darauf hingewiesen, dass bei der Entwicklung von KI-basierten Lösungen zwei Annahmen mit diametral entgegengesetzter Wirkung miteinander konkurrieren: Einerseits ist der reine KI-Algorithmus, wie gesehen, von Natur aus fehleranfällig, was sehr oft anerkannt wird, und daher werden Sicherheitsmaßnahmen wie hart kodierte oder physische Grenzen eingesetzt. Die Anwendung des Prinzips der Risikominimierung, das darauf abzielt, alle Gefahren zu vermeiden, stößt jedoch auf die Tatsache, dass es unmöglich ist, alle möglichen Risiken zu vermeiden, um praktikable und nützliche Lösungen bereitzustellen. Daher muss der Grundsatz des zulässigen Risikos berücksichtigt werden. Entscheidend ist in diesen Fällen eine Wertfrage, die nicht im Voraus beantwortet werden kann.

Die Frage nach der schuldhaften Fehlerhaftigkeit einer KI-Anwendung ist mit verschiedenen Problemen verbunden. Zum einen hängt das zu beweisende Verschulden vom Schaden ab. So ist in der Deliktshaftung wegen der Begrenzung der gedeckten Schäden ein Mangel nur dann relevant, wenn er kausal für den Schaden ist, was ebenfalls voraussetzt, dass der Einsatz der KI-Anwendung bestimmungsgemäß ist.44 Zum anderen liegt, wie bereits erwähnt, der Erfolg von KI-Anwendungen darin, dass sie aus den Lerndaten eine allgemeingültige Lösung lernen und diese flexibel einsetzen. Die Erfahrung lehrt jedoch, dass es immer wieder Ausnahmefälle geben wird, so dass sich Fehler nie ganz vermeiden lassen. Darüber hinaus kann eine KI-Anwendung unter verschiedenen Aspekten als fehlerhaft angesehen werden.

Ein erster Aspekt, der zur Bestimmung der Fehlerhaftigkeit eines KI-Systems herangezogen werden kann, ist die allgemeine Erfolgsquote bei der Erledigung der zugewiesenen Aufgabe: Der genaue Schwellenwert der Erfolgsquote zur Bestimmung einer Fehlerhaftigkeit hängt von den Umständen ab und kann nicht objektiv bestimmt werden, sondern muss relativ betrachtet werden. In der Diskussion um KI wird oft der Mensch als Maßstab genommen. Aber welcher Mensch oder welche Gruppe von Menschen sollte als Maßstab genommen werden? Und sollte die Messlatte für KI-Anwendungen höher gelegt werden als die für Menschen? Und wenn man bedenkt, dass kein Mensch perfekt ist und jeder Fehler macht,45 ist dann der Mensch der richtige Maßstab für diese Messung? Diese hochsensiblen ethischen Fragen hängen vom praktischen Anwendungsbereich, dem Entwicklungsstand der Technologie und den auf dem Spiel stehenden rechtlichen Interessen ab. Während man also an die Fähigkeit eines KI-basierten Bewässerungssystems für Pflanzen in einer Wohnung weniger strenge Maßstäbe anlegen kann, wird man für lebenswichtige medizinische Geräte eine nahezu absolute Sicherheit erreichen wollen.46

Angenommen, dieser Benchmark ist identifiziert und definiert und es lässt sich anhand verschiedener Ereignisse nachweisen, dass die tatsächliche Erfolgsquote unter dem festgelegten Benchmark liegt, kann man von einer fehlerhaften KI-Lösung sprechen. Aber auch wenn das System generell als nicht mangelhaft angesehen wird, weil jeder Fehler innerhalb der akzeptierten Fehlermarge liegt, bedeutet dies noch nicht, dass der einzelne Fehler nicht auf eine zurechenbare Sorgfaltspflichtverletzung zurückzuführen ist.

Ein zweiter Aspekt ist daher die spezifische Erfolgsquote: Es ist schwierig, einzelne Ereignisse innerhalb oder außerhalb einer akzeptierten Genauigkeit einzuordnen.47 Um die Erfolgsquote eines KI-basierten Systems zu prüfen, muss man über die notwendigen statistischen Daten verfügen, und wenn diese fehlen, muss man eine genauere Sorgfaltspflichtverletzung nachweisen. Wie bereits erwähnt, hat sich das Thema „erklärbare KI“ in den letzten Jahren stark verbreitet, so dass Techniken und Dienste entwickelt werden, die versuchen, die wichtigsten Faktoren für die Entscheidung einer KI und ihre Funktionsweise transparent zu machen.48 Allerdings müssen diese Techniken oft im Voraus angewendet werden, da eine nachträgliche Anwendung nicht immer möglich ist. Ein einzelner Fehler kann dann das Ergebnis eines Problems in den Lerndaten sein, aus denen das KI-System eine falsche Regel gelernt hat (dies wird als „Bias“ bezeichnet). Wenn nachgewiesen wird, dass das schädliche Ergebnis die Folge der Einspeisung schlechter Daten ist (z. B. weil bei der Auswahl und Aufbereitung dieser Daten nicht mit der gebotenen Sorgfalt vorgegangen wurde oder weil jemand in der Lage war, verfälschende Daten einzuspeisen, weil keine angemessenen Maßnahmen dagegen getroffen wurden), kann die Verantwortung auf der Grundlage dieser Fehler zugewiesen werden. Es ist zu beachten, dass der KI-Anbieter dafür verantwortlich gemacht werden kann, dass er nicht die erforderlichen Sorgfaltsmaßnahmen zur Vermeidung fehlerhafter Daten ergriffen hat, wenn das schädigende Ereignis aus der Anhäufung verschiedener Datensätze aus unterschiedlichen Quellen resultiert, von denen jeder für sich genommen das Modell nicht hinreichend beeinflusst haben kann.49

Das Gleiche gilt, wenn ein Fehler im Code gefunden wird. Hier ist zu prüfen, ob Mängel in der Entwicklung der KI-Architektur (z.B. falsche Signale werden herausgefiltert oder falsch gewichtet) oder in der Kodierung einer Software oder eines Prozesses, in den die KI-Lösung eingebettet ist (z.B. bei Fehlen von angemessenen Sicherheitsgrenzen), vorliegen.

Um die genauen Kriterien für die Bestimmung der praktischen Anforderungen an das KI-System und die Menschen, die mit ihm interagieren, herauszuarbeiten, ist es wichtig zu bedenken, dass der Einsatz dieser KI-basierten Lösungen nicht im rechtsfreien Raum stattfindet, so dass es je nach Anwendungsbereich häufig bereits entwickelte technologieneutrale Schutzmechanismen und Sorgfaltspflichten gibt, die die Zufügung von Schaden verhindern sollen. Die Einzigartigkeit einer KI-Lösung in dieser Hinsicht besteht darin, dass die anwendbaren Sorgfaltspflichten oft schon vor dem Einsatz der KI-Lösung, d.h. während der Entwicklung und Planung, und nicht erst während des Betriebs des Systems berücksichtigt werden müssen, da dessen Auswirkungen weit verbreitet sind und sich daher stärker bemerkbar machen als bei früheren Methoden.

B. Produkthaftung

Schäden an materiellen Rechtsgütern, die durch ein KI-gestütztes System verursacht werden, fallen häufig unter die Produkthaftung, da die KI verkörpert sein muss, um ein solches Ergebnis zu erzielen. Nach dem Produkthaftungsrecht kann diese Haftung nicht nennenswert eingeschränkt werden.50

Anders als bei der Deliktshaftung muss jedoch nicht ein Verschulden, sondern nur ein Fehler des Produkts nach Art. 4 ProdHaftG nachgewiesen werden. Der Schöpfer einer KI-Lösung haftet daher, wie von einem großen Teil der Lehre vertreten, häufig als Schöpfer nach dem Produkthaftungsgesetz für Sach- und Personenschäden.51 Dies ist sicherlich der Fall, wenn die KI Bestandteil einer beweglichen Sache ist. Schwieriger ist die Situation, wenn die KI-basierte Software und das Objekt, auf dem die KI läuft, getrennt sind, so dass der Hersteller des Objekts keine Verantwortung für die Softwarekomponente tragen kann. Dies ist zunehmend der Fall beim aktuellen Trend, physische Plattformen anzubieten, für die Dritte ihre Softwarekomponenten entwickeln und anbieten können.52 Obwohl umstritten und trotz des Verbesserungspotenzials bei der Regulierung, plädieren einige Lehrmeinungen dafür, in diesen Situationen auch reine Software als Produkt zu betrachten.53

Dabei ist zu beachten, dass das Produkthaftungsgesetz die Haftung für Sachschäden auf privat genutzte Gegenstände beschränkt, so dass im Falle von KI-basierten Systemen, die für geschäftliche Zwecke genutzt werden, nur der Tod oder die Verletzung einer Person durch das Produkthaftungsgesetz abgedeckt ist.54 Diese Fragen werden jedoch in der Regel im Vertrag zwischen dem Anbieter und dem Nutzer geregelt.

C. Vertragliche Haftung

Wie bereits erwähnt, wird ein KI-System in den meisten Fällen auch zur Erfüllung vertraglicher Verpflichtungen eingesetzt oder ist sogar Gegenstand eines Vertrages. Die Erscheinungsformen eines solchen Vertrages sind sehr unterschiedlich, und jede von ihnen kann bei der Nutzung einer KI besondere Fragen aufwerfen.

Wir werden hier nur eine bestimmte Erscheinungsform des Einsatzes von KI bei der Erfüllung einer vertraglichen Verpflichtung untersuchen, die meines Erachtens aufgrund ihrer Aktualität und der Art der Fragen, die sie aufwirft, ein gutes Beispiel für die mit dem Einsatz von KI bei der Erfüllung eines Vertrags verbundenen Haftungsfragen ist.

Nehmen wir konkret an, dass ein Facharzt eine falsche Diagnose stellt, weil er sich in einem ungewissen Fall auf die Empfehlung einer KI-Software verlassen hat. Hier ist der Arzt dem Patienten gegenüber vertraglich verantwortlich. Der Vertrag zwischen Patient und Arzt ist ein Auftrag, so dass die ordnungsgemäße Erfüllung des Vertrages die Anwendung der geschuldeten Sorgfaltspflicht erfordert.55

  1. als Dienstleister, der KI einsetzt

Zunächst stellt sich die Frage, ob der Einsatz von KI-Software bei der Erfüllung des Mandats gegen die erforderliche Sorgfaltspflicht verstößt. Es ist mittlerweile weithin anerkannt, dass KI auch im medizinischen Bereich große Chancen bietet, und Krankenhäuser setzen diese Technologie zunehmend ein, sowohl bei der Diagnose als auch bei der Bestimmung der besten Therapie.56 Deontologisch ist ein Arzt verpflichtet, eine zweite Meinung einzuholen, wenn er der Meinung ist, dass er an die „Grenzen der ärztlichen Leistungsfähigkeit“ stößt und das Wohl des Patienten dies erfordert.57 KI-basierte Diagnosesysteme werden mittlerweile häufig als praktische Zweitmeinung angesehen, so dass ihr Einsatz – sofern das System sorgfältig konzipiert wurde und sich der Nutzer seiner Grenzen bewusst ist – zumindest nicht gegen die Sorgfaltspflicht verstößt.

Die diametrale Frage, ob der Einsatz eines solchen Instruments notwendig ist, ist schwieriger zu beantworten und kann sich aufgrund des raschen Fortschritts in diesem Bereich schnell ändern. Der Grad der erforderlichen Sorgfalt hängt insbesondere von den Umständen ab, wie z. B. der Art der Behandlung, den damit verbundenen Risiken, dem Grad der Diskretion, den Mitteln und der Zeit, die dem Arzt im Einzelfall zur Verfügung stehen, sowie von der Ausbildung und den Fähigkeiten des Arztes. Aufgrund der Fortbildungspflicht von Ärzten58 , des gestiegenen Bedarfs an Unterstützung bei der Analyse von Patientendaten sowie des großen Interesses an KI-Technologien werden wir uns meines Erachtens zunehmend in die Richtung bewegen, dass die effizientesten und effektivsten dieser Anwendungen zur Grundausstattung von Fachärzten gehören müssen. Man wird dann davon ausgehen können, dass ein Arzt in diesen Situationen über ein sorgfältig ausgewähltes KI-gestütztes Werkzeug verfügt, dessen Nichtnutzung ein Hinweis auf eine Verletzung der Sorgfaltspflicht sein könnte. Je nach Zuverlässigkeit des Systems wäre die Notwendigkeit, die Diagnose zu belegen, dann höher, wenn der Arzt gegen den Rat des Systems handelt. Dies allerdings nur, wenn der Rat des KI-Systems als Sachverständigengutachten angesehen werden kann. Nach der Rechtsprechung haben Berichte und Gutachten dann Beweiskraft, wenn sie schlüssig, nachvollziehbar begründet und widerspruchsfrei erscheinen und keine Anhaltspunkte gegen ihre Zuverlässigkeit sprechen.59 Ausgehend von dieser Substantiierungspflicht könnte der Einsatz eines KI-basierten Systems die Anforderungen an die Substantiierung einer Diagnose nur insoweit erhöhen, als das System sein Ergebnis nachvollziehbar erläutern kann, da diese Erläuterung dann in die Substantiierung der Diagnose einfließen sollte.60 Dies ist heute oft nicht der Fall, was auch die Verzögerung beim Einsatz von KI-basierten Diagnosesystemen erklärt. Bei fehlender Aufklärung seitens des KI-Systems ist der Arzt m.E. nur verpflichtet, sich der Richtigkeit seiner Schlussfolgerung zu versichern (sog. Doppelkontrolle), um eine ausreichende Sorgfalt nachweisen zu können.

Diese Überlegung stößt an ihre Grenze, wenn die Motivation für das Ergebnis eines KI-Systems nicht mehr nachvollziehbar ist. Damit ist die Situation gemeint, in der das KI-System die Richtigkeit seiner Schlussfolgerung zwar prinzipiell erklären kann, diese Erklärung aber so kompliziert ist, dass selbst der durchschnittliche Experte sie nicht verstehen kann. Der Nutzer wäre dann nicht mehr in der Lage, dem KI-System zu widersprechen oder mögliche Fehler zu erkennen. Meines Erachtens ist eine solche Konstellation vergleichbar mit einem Medizinprodukt, für dessen Einsatz ein Zulassungsverfahren erforderlich ist. Dieses Verfahren kann zusätzliche, von der herkömmlichen medizinischen Kunst abweichende Sicherheitsmaßnahmen erfordern, die aber erfüllt sein müssen, um fehlerhafte Ergebnisse seitens des KI-Systems zu vermeiden.

Obwohl also der Einsatz von KI heute in der Regel weder den Nachweis einer angemessenen Sorgfalt per se noch eine Sorgfaltspflichtverletzung darstellt, wäre in jedem Einzelfall zu prüfen, ob eine Fehldiagnose auf einer Sorgfaltspflichtverletzung beruht, die den Einsatz eines KI-basierten Unterstützungssystems seitens des Arztes im Einzelfall erfordert und damit auch erhöhte Rechtfertigungsanforderungen an die Diagnose stellt.

Inwieweit der Anbieter eines KI-fähigen Produktes oder einer Dienstleistung für das Ergebnis und etwaige Schäden haftet, ist dann eine Frage der Auslegung des zugrunde liegenden Vertrages zwischen Anbieter und Nutzer.

  1. als KI-Anbieter

Wird die KI-basierte Lösung im Rahmen eines Kauf- oder Dienstleistungsvertrages dem Dienstleister zur Verfügung gestellt, haftet der Dienstleister oder Nutzer für die Ergebnisse der Anwendung in erster Linie gegenüber seinen eigenen Vertragspartnern.

Wird nur die Software verkauft, haftet der Verkäufer sowohl für das Vorhandensein zugesicherter Eigenschaften als auch dafür, dass der Kaufgegenstand keine Mängel aufweist, die seine Verwendbarkeit beeinträchtigen. Da aber, wie erwähnt, KI-Systeme aus Daten lernen, wird man, wenn man ein lernfähiges KI-System kauft, grundsätzlich für die Eingabe von Daten und deren Folgen verantwortlich. Eine Verantwortung des KI-Anbieters für erlerntes Verhalten wird dann nur schwer festzustellen sein, es sei denn, dies wurde im Vertrag ausdrücklich vereinbart oder war nach dem Stand der Technik zum Zeitpunkt der Entwicklung des Systems anders zu erwarten.

Aufgrund dieser Probleme sowie anderer Besonderheiten der modernen Softwareentwicklungspraxis im Allgemeinen wird eine KI-Lösung häufig als Dienstleistung angeboten (sog. Software as a Service oder „SaaS“).61 Der KI-Anbieter ist dann in der Lage, die erstellte Lösung kontinuierlich weiterzuentwickeln und das Training der KI auf der Grundlage einer größeren Datenmenge sicherzustellen. Die Verantwortung für eine Fehlerhaftigkeit des KI-Systems liegt dann beim Anbieter, sofern nichts anderes vereinbart wurde.

III. Fazit

Die Zurechnung der Haftung im Schadensfall bei einem KI-basierten System wirft aufgrund der besonderen Ausgestaltung dieser Technologie verschiedene Probleme bei der Bestimmung der anwendbaren Sorgfaltspflichten auf. Aufgrund der flexibleren Einsatzmöglichkeit, die mit einem inhärenten Risiko verbunden ist, sind beim Einsatz einer KI-basierten Lösung neue besondere Sorgfaltsmaßnahmen seitens des Anwenders erforderlich, da dieser ansonsten nach der allgemeinen Risikotheorie haftbar gemacht werden könnte. Hat der Nutzer angemessene Sorgfalt walten lassen, kann ein Verschulden nicht nur in der Kodierung der KI-basierten Lösung, sondern auch in der Auswahl und Aufbereitung der für ihr Training verwendeten Daten liegen. Trotz Fortschritten in diesem Bereich ist es in diesen Fällen sehr schwierig, ein Verschulden nachzuweisen.

N.B. Dieser Artikel wurde am HAVE 04/2021 veröffentlicht. Der Artikel wurde in einigen Passagen gegenüber der ursprünglichen Fassung leicht verändert, um die Lesbarkeit zu verbessern.

Similar talks

Overcoming the Challenges of AI Development in the Health Sector with Expert Guidance

The challenges to developing AI-based solutions in the health and medical sectors are significant yet navigable with the right combination of expertise.

KI und rechtliche Überlegungen

Die Aussicht auf die Einführung von KI in einem Unternehmen wirft viele Fragen auf. Hier die Antworten auf einige von ihnen.

Partnerschaft mit Modulos AG

Die Modulos AG und AI LSC bündeln ihre Kräfte, um vertrauenswürdige KI- und Compliance-Dienstleistungen im Einklang mit den kommenden KI-Vorschriften anzubieten