© WangXiNa - Freepik.com

Haftung für den digitalen HelferHaftung für den digitalen Helfer

Haftung für KI ist ein wichtiges Thema im europäischen Raum und bringt für Anwendende und Unternehmen neue Herausforderungen.

Der Europäischen Kommission ist es ein Anliegen, mit der zunehmenden Verbreitung von künstlicher Intelligenz (KI) in verschiedenen Bereichen auch angemessene Regelungen zur Haftung und Schadensersatzansprüchen zu etablieren.

Eine neue Richtung

Diesem Zweck dient der Richtlinienentwurf über KI-Haftung (KI-Haftungs-RL; COM/2022/496 final), der nach der Verabschiedung des Gesetzesvorschlags über künstliche Intelligenz (AI Act) von der Kommission am 28. September 2022 angenommen wurde.[1] Ziel dieses Entwurfs ist es, die Haftungsregeln für KI-Systeme in der EU zu harmonisieren und dabei einheitliche Standards für Anbieter und Nutzer von KI-Technologien festzulegen, um Vertrauen in KI zu schaffen und Rechtsunsicherheiten zu reduzieren.

Die Komplexität, die Eigenständigkeit und fehlende Transparenz von KI-Systemen führen häufig dazu, dass es schwierig ist, Verantwortlichkeiten für unrechtmäßiges Verhalten oder entstandene Schäden zuzuordnen. Diese Zuordnung ist jedoch eine grundlegende Voraussetzung für verschuldensabhängige Schadensersatzansprüche. Bisher herrscht Unklarheit darüber, wie nationale Gerichte die bestehenden Regelungen interpretieren sollen. Und es gibt keine EU-weite Harmonisierung der KI-Haftung. Dies führt zu Unsicherheiten für Unternehmen hinsichtlich ihres Haftungsrisikos. Um diese Lücken zu schließen hat die Europäische Kommission den Richtlinienentwurf über KI-Haftung entwickelt.

Der Hauptzweck der KI-Haftungs-Richtlinie besteht darin, einheitliche Schutzmechanismen für Schäden durch KI-Systeme zu etablieren. Dieser Richtlinienentwurf soll die Implementierung vertrauenswürdiger KI-Technologien fördern, die Vorteile für den EU-Binnenmarkt sicherstellen und die bestehenden Unsicherheiten für Unternehmen im Hinblick auf das Haftungsrisiko reduzieren.

Die wesentlichen Änderungen

Der KI-Haftungs-Richtlinien-Entwurf sieht zwei wesentliche Änderungen vor. Sie werden von zwei Hauptinstrumenten umgesetzt. So soll die Offenlegung von Beweismitteln nach Art. 3 erleichtert und die Kausalität beim Einsatz von Hochrisiko-KI-Systemen durch eine Vermutung nach Art. 4 klarer gestaltet werden.

1) leichtere Offenlegung von Beweismitteln (Artikel 3)

Artikel 3 der KI-Haftungsrichtlinie ermöglicht es Klägern, die ihre Schadensersatzansprüche überzeugend darlegen können, bei nationalen Gerichten die Offenlegung relevanter Beweise zu beantragen. Diese Anforderung kann gegenüber KI-Anbietern, Personen, die den Anbieterpflichten unterliegen, und Nutzenden angeordnet werden. Zusätzlich kann das Gericht auf Antrag des Klägers Maßnahmen zur Beweissicherung anordnen, um die effektive Durchsetzung der Rechte sicherzustellen.

Die Anordnung zur Beweisoffenlegung muss präzise und auf das erforderliche Mindestmaß beschränkt sein, um ein ausgewogenes Verhältnis zwischen den Interessen des Klägers und des Beklagten zu wahren. Bei sensiblen Geschäftsdaten oder anderen vertraulichen Informationen kann die Offenlegung angeordnet werden, wobei stets der Schutz der berechtigten Interessen beachtet werden muss. Um die Offenlegung zu fördern und Verfahren zu beschleunigen, können nationale Gerichte einen Verstoß gegen die Sorgfaltspflicht vermuten, wenn die Aufforderung zur Beweisoffenlegung nicht ausreichend erfüllt wird. Dies gilt insbesondere bei der Prüfung der Einhaltung, der im AI-Act genannten Anbieter- oder Nutzerpflichten, wie beispielsweise Qualitätsmanagementsystemen oder der Aufbewahrung von automatisch generierten Protokollen.[2]

2) nachvollziehbare Kausalität bei Hochrisiko-KI-Systemen (Artikel 4)

Ein zentrales Element der KI-Haftungsrichtlinie ist Artikel 4 Absatz 1. Er schafft eine vermutete Verbindung zwischen dem Fehlverhalten des Anbieters oder Nutzers und dem entstandenen Schaden (dem Resultat der KI). Das Fehlverhalten kann sich aus der Missachtung einschlägiger Sorgfaltspflichten ergeben oder sogar vermutet werden, wenn die Person, die angeblich für Schadensersatz verantwortlich ist, einer Anordnung zur Beweisoffenlegung aus Artikel 3 Absatz 5 der KI-Haftungsrichtlinie nicht nachgekommen ist.

Allerdings setzt die vermutete Verbindung zwei Dinge voraus:

  • es kann vernünftigerweise als wahrscheinlich angesehen, dass das Fehlverhalten des Beklagten das Ergebnis beeinflusst hat, das von der KI erzeugt wurde (Artikel 4 Absatz 1 Buchstabe b) und
  • der Kläger kann nachweisen, dass das von der KI generierte Ergebnis tatsächlich zu dem Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c der KI-Haftungsrichtlinie).

Es bleibt daher das grundlegende Erfordernis eines Zusammenhangs zwischen dem schädlichen Ereignis (KI-Ausgabe) und einem geschützten Rechtsgut des Klägers bestehen. Dies schließt jedoch explizit Verletzungen der Privatsphäre oder Schäden durch Sicherheitsprobleme ein. Dank dieser neuen Bestimmungen wird es beispielsweise einfacher, Schadensersatz zu erhalten, wenn jemand in einem Einstellungsverfahren aufgrund von KI-Technologie diskriminiert wurde.[2]

Verknüpfung mit Produkthaftung

Zusätzlich zu diesen Änderungen im Rahmen der KI-Haftungs-Richtlinie hat die Europäische Kommission auch eine Novelle der Produkthaftungsrichtlinie veröffentlicht. Diese Novelle (Produkthaftungs-RL-E) bezieht explizit Software, einschließlich KI-Systeme, in den Anwendungsbereich der Produkthaftungsrichtlinie ein. Die Produkthaftungs-RL-E erweitert auch den Kreis der haftenden Akteure, um sicherzustellen, dass Geschädigte Ansprüche gegen verschiedene Beteiligte geltend machen können, die an der Bereitstellung von KI-Systemen beteiligt sind.[3]

Fazit

Die Anpassungen der KI-Haftungs-Richtlinie und der Produkthaftungs-RL-E stellen einen bedeutsamen Fortschritt dar, um Klarheit und Verlässlichkeit in Bezug auf die Haftung im Kontext von KI-Technologien zu schaffen. Unternehmen und KI-Anwendende sollten sich jedoch auf mögliche Auswirkungen vorbereiten, da die Implementierung dieser Richtlinien Veränderungen in der Dokumentation und im Umgang mit KI-Systemen erfordern wird. Es ist zu beachten, dass der Richtlinienentwurf noch im Gesetzgebungsprozess ist und die genaue Verabschiedung und Umsetzung auf nationaler Ebene noch ausstehen.

Insgesamt ist die Entwicklung dieser Haftungsrichtlinien ein wichtiger Schritt in Richtung eines verantwortungsbewussten Umgangs mit künstlicher Intelligenz und trägt dazu bei, eine ausgewogene Balance zwischen Innovation und Schutz der Interessen von Individuen und Unternehmen zu schaffen. Es empfiehlt sich, die Entwicklungen in diesem Bereich aufmerksam zu verfolgen und sich rechtzeitig auf die neuen Anforderungen vorzubereiten, um die Chancen der KI-Technologie bestmöglich nutzen zu können.

Referenzen

  1. C. Frank, „Fair Trial zur Bestimmung von KI-Haftung? Das Offenlegungskonzept des Entwurfs der Richtlinie über KI-Haftung“, 20. Oktober 2022. https://www.taylorwessing.com/de/insights-and-events/insights/2022/10/fair-trial-to-determine-liability (zugegriffen 4. September 2023).
  2. J. G. Ballestrem und C. Pitzer, „Neue EU-Richtlinie zur KI-Haftung: Was sich ändert und was Anwender jetzt wissen müssen“. https://www.osborneclarke.com/de/insights/neue-eu-richtlinie-zur-ki-haftung-was-sich-aendert-und-was-anwender-jetzt-wissen-muessen (zugegriffen 14. September 2023).
  3. A. Kapoor und T. Klindt, „Verschärfung der Produkthaftung in Europa: Der Vorschlag der neuen Produkthaftungsrichtlinie“, BB, S. 67–71, 2023.

Verwandte Beiträge