Sachverhalt
Der Einsatz von KI in Produkten, Services und internen Prozessen begründet neue Haftungsszenarien – nicht erst auf der Grundlage neuer EU-Regelungen, sondern bereits nach geltendem Recht. So haften Unternehmen als Störer für vollautomatisierte, per KI erzeugte Falschauskünfte, wenn diese Auskünfte fremde Rechte verletzten.
Ein anschauliches Beispiel liefert die Entscheidung des Landgerichts Kiel (6 O 151/23). Ein Unternehmen war von einem Informationsdienst fälschlich als „vermögenslos“ bezeichnet worden – eine Angabe, die automatisch durch ein KI-basiertes System erstellt worden war. Das betroffene Unternehmen verlangte die Unterlassung der weiteren Verbreitung sowie eine strafbewehrte Unterlassungserklärung. Der Betreiber berief sich darauf, dass die Inhalte automatisiert erzeugt worden seien und Fehler technisch nicht vollständig ausgeschlossen werden könnten.
Urteil
Das LG Kiel nahm den Informationsdienst in die sog. Störerhaftung. Trotz seines Hinweises auf den automatisierten Charakter der erzeugten Inhalte sei der Plattformbetreiber für die fehlerhafte Information rechtlich verantwortlich.
Das die KI nutzende Unternehmen könne sich nicht hinter der KI verstecken. Vielmehr habe es die KI bewusst eingesetzt und sich die KI-generierten Angaben (den KI-Output) durch Gestaltung, Verbreitung und fehlende Korrektur zu eigen gemacht. Daraus folge aber auch die Pflicht, schwerwiegende Fehlinformationen durch die KI zu verhindern. Insofern reiche die pauschale Berufung auf automatisierte Prozesse oder auf unvollständige Quellen zur Abwendung einer Inanspruchnahme auch nicht aus.
Entscheidungsgründe
Das Gericht stützt seine Entscheidung insbesondere auf die Verletzung des Unternehmenspersönlichkeitsrechts. Die falsche Darstellung war geeignet, das geschäftliche Ansehen des Klägers zu beschädigen (§ 1004 BGB analog i. V. m. Art. 2 Abs. 1, Art. 19 Abs. 3 GG). Die Plattform präsentierte die Information durch Überschrift, Layout und Kontext als Faktum. Das KI-System war dabei lediglich Werkzeug und kann keine haftungsrechtliche Schutzbarriere darstellen. Sofern der Dienst keine ausreichenden Vorkehrungen trifft, um vergleichbare Fehlinformationen der KI künftig zu verhindern, begründet das den Unterlassungsanspruch.
Relevanz für Unternehmen
Das Urteil belegt, dass Unternehmen beim Einsatz von KI nicht in einem rechtsfreien Raum agieren. Sowohl Hersteller als auch Verwender von KI können nach den allgemeinen Regeln des Bürgerlichen Rechts haften. Bei Pflichtverletzungen im Zusammenhang mit KI-Output können vertragliche, wie auch deliktische Schadensersatzansprüche entstehen. Pauschale Haftungsausschlüsse in AGB sind regelmäßig unwirksam, auch wenn sie in der Praxis häufiger anzutreffen sind.
Haftungsverschärfungen durch die EU-ProdukthaftRL
Ab Dezember 2026 zeichnet sich mit Inkrafttreten der EU-Produkthaftungsrichtlinie eine zusätzliche, deutlich strengere Haftungslinie ab, die das Risiko für Herstellende digitaler Produkte spürbar erhöht. Künftig gelten KI-Systeme und Software als „Produkte“ im Sinne der Produkthaftung und deren Herstellende haften verschuldensunabhängig für Schäden, die durch fehlerhafte Systeme verursacht werden – auch bei rein digitaler Bereitstellung (z. B. KI-as-a-Service).
Zusätzlich kommen Beweiserleichterungen zugunsten der Geschädigten hinzu, wenn technische Komplexität (etwa bei Machine Learning) eine Beweisführung erschwert. Das Haftungsrisiko wird größer und gerade für kleinere Marktteilnehmenden wird das Haftungsmanagement dadurch nicht leichter, sondern strukturell anspruchsvoller.
Was ist zu tun?
Praktisch bedeutet das, dass Unternehmen KI-Projekte nicht nur technisch, sondern von Beginn an auch haftungsrechtlich strukturieren und vor Umsetzung systematisch prüfen sollten, welche Haftungsszenarien entstehen können.
Praktische Stellschrauben sind insbesondere:
- Saubere Leistungs- und Eigenschaftszusagen in Verträgen (keine „Overselling“-Versprechen bei KI-Funktionalität).
- Governance für KI-Output (Kontrollen, Freigaben, Korrekturmechanismen, Monitoring).
- Dokumentation und Nachweisfähigkeit (Modellversionen, Datenquellen, Updates, Verantwortlichkeiten) schon heute zur Verteidigung nach BGB, perspektivisch verstärkt im Lichte der Produkthaftung.
- AGB/Haftungsklauseln prüfen, da pauschale KI-Haftungsausschlüsse regelmäßig nicht tragen.
Diese Haftungsszenarien sollten vor Umsetzung eines KI-Projekts sorgfältig analysiert werden, um die Einhaltung aller für das konkrete Produkt maßgeblichen Vorgaben sicherzustellen.
Weiterführende Links:
- Haftung für Falschauskünfte wegen unzulänglicher KI-Programmierung: https://www.gesetze-rechtsprechung.sh.juris.de/bssh/document/NJRE001589976
- LG Kiel: Nutzung von künstlicher Intelligenz begründet Haftung: https://itmr-legal.de/blog/nutzung-von-ki-haftung






