Sachverhalt
Immer mehr Unternehmen setzen KI-Chatbots und automatisierte Tools ein, um Kundenanfragen zu beantworten, Beschwerden zu bearbeiten oder eingehende Meldungen zu prüfen. Die Effizienz ist hoch, doch rechtlich stellt sich die Frage: Wer prüft die Inhalte eigentlich?
Ein aktuelles Verfahren vor dem Landgericht München I (33 O 28/25) illustriert dieses Risiko. Ein Nutzer meldete über ein Formular bei TikTok einen Fake-Account. Er erhielt daraufhin eine automatisch generierte Nachricht („Wir überprüfen deine Meldung…“) und später den Bescheid, dass „kein Verstoß vorliege.“ Im anschließenden gerichtlichen Verfahren argumentierte die Plattform, das Meldesystem werde durch ein KI-Tool betrieben. TikTok selbst habe daher keine tatsächliche „Kenntnis“ von dem Rechtsverstoß gehabt und könne deshalb auch nicht haftbar gemacht werden.
Urteil
Das Landgericht München I erließ die beantragte einstweilige Verfügung gegen die Plattform. Das Gericht ließ den Einwand der „fehlenden Kenntnis“ nicht gelten. Entscheidend war für die Richter, dass das System nach außen hin kommuniziert hatte, dass eine Prüfung erfolgt sei. Sofern ein Unternehmen den Anschein erweckt, einen Sachverhalt geprüft zu haben, ist ihm dieses Prüf-Ergebnis zuzurechnen – unabhängig davon, ob ein Mensch oder eine KI die Entscheidung getroffen hat.
Entscheidungsgründe
Das Gericht stellt zunächst auf die bekannten Host-Provider-Grundsätze „Notice and Take Down“ ab und knüpft folgerichtig die Haftung als mittelbare Störerin daran, ob die Plattform Kenntnis von der Rechtsverletzung erlangt hat.
Für Plattformen gilt nämlich: Nutzerinhalte müssen nicht vorsorglich überwacht werden. Verantwortlich wird die Plattform aber, sobald sie einen konkreten Hinweis auf eine Rechtsverletzung erhält und dann nicht angemessen reagiert. Kenntnis liegt vor, wenn die Rechtsverletzung so mitgeteilt wird, dass der Rechtsverstoß ohne eingehende rechtliche oder tatsächliche Prüfung für den Plattformbetreiber erkennbar ist.
Im konkreten Fall hielt das Gericht die Angaben aus dem Meldeformular nach dem dokumentierten Nachrichtenverlauf für konkret genug. Dies folgt – nach Auffassung des Gerichts – auch aus der Reaktion des Pattformbetreibers: TikTok kündigte eine Prüfung an und teilte anschließend unzweideutig und abschließend mit: „Keine Verstöße gefunden“ zu haben. Wer aber nach außen ein solches Prüfergebnis kommuniziert, kann sich später nicht darauf berufen, die Meldung sei zu ungenau gewesen oder habe bei näherer Betrachtung keine Kenntnis vermittelt.
Ebenso stellt das Gericht auf die Gestaltung des Meldeprozesses ab: Der Nutzer hat die von TikTok vorgegebene Eingabemaske genutzt, die für seinen Fall vorgehalten war (Fake-Account/Identitätsdiebstahl). Deshalb muss sich TikTok auch an den dort abgefragten und als prüffähig behandelten Angaben festhalten lassen. Dabei ist unerheblich, ob es noch andere Kontaktwege daneben gegeben hätte.
Merke!
Eine Plattform muss fremde Inhalte nicht proaktiv vorher kontrollieren. Sie haftet aber ab dem Moment, in dem sie durch einen konkreten Hinweis von einer Rechtsverletzung erfährt – dann muss zügig gelöscht oder gesperrt werden.
Relevanz für Unternehmen
Das Urteil hat weitreichende Folgen für alle KMU, die Chatbots oder automatisierte Mailsysteme im Vertrieb, Support oder Beschwerdemanagement nutzen. Dabei gilt: KI ist kein Haftungsschutzschild oder kann als Ausrede herhalten. Sondern: Sofern ein Chatbot einem Kunden fälschlicherweise eine Zusage macht oder eine Reklamation als „unbegründet“ ablehnt, gilt die Aussage der des Chatbots als Aussage des Unternehmens. Insofern besteht die Gefahr, dass durch die KI Fakten geschaffen werden (z. B. Kenntnis einer Mängelrüge), die das Unternehmen rechtlich binden, ohne dass ein Sachbearbeiter den Vorgang je gesehen hat.
Schon vor der KI-Ära hat der Bundesgerichtshof (BGH, Urt. v. 16.10.2012 – X ZR 37/12) entschieden, dass vollautomatisch generierte E-Mails (z. B. Buchungsbestätigungen) rechtlich bindende Willenserklärungen des Unternehmens sind. Wer ein technisches System programmiert und auf Kunden loslässt, muss sich dessen Output als eigene Handlung zurechnen lassen. Das gilt erst recht für KI. Wenn der Chatbot einem Kunden eine Zusage macht („Wir erstatten den Betrag“), ist das keine unverbindliche Spielerei, sondern im Zweifel eine wirksame vertragliche Zusage, an die das Unternehmen gebunden ist.
Um die Tragweite zu verstehen, lohnt ein Blick auf typische Szenarien:
- Der Online-Handel: Ein Kunde fragt den Chatbot: „Ist das E-Bike wetterfest?“. Die KI halluziniert und antwortet fälschlicherweise „Ja, absolut wasserdicht nach IP67“. Rostet das Rad später, haftet der Händler für Sachmängel, weil die KI eine Beschaffenheitsgarantie abgegeben hat.
- Der Handwerksbetrieb: Ein KI-Termin-Tool vereinbart verbindlich einen Reparaturtermin, obwohl kein Monteur verfügbar ist. Der Auftraggebende nimmt sich frei und verlangt nun Schadensersatz für den Verdienstausfall.
- Der Versicherungsmakler: Ein Chatbot bestätigt einem Mandanten auf Rückfrage: „Ja, dieser Wasserschaden ist versichert“, obwohl die Police das ausschließt. Im Schadensfall muss der Makler sich an dieser Zusage messen lassen (Beratungshaftung).
Hinzu tritt eine weitere regulatorische Verschärfung: Der EU AI Act (Art. 50) schreibt künftig zwingend vor, dass für Nutzende erkennbar sein muss , wenn sie mit einer KI interagieren. Das LG München I urteilte zwar noch auf Basis des allgemeinen Haftungsrechts, doch der AI Act wird diese Linie verstärken. Wer intransparente KI-Systeme einsetzt, die menschliche Prüfung nur vortäuschen, verstößt künftig nicht nur gegen Haftungsgrundsätze, sondern riskiert auch Bußgelder wegen mangelnder Transparenz.
Was ist zu tun?
Unternehmen sollten ihre KI-Prozesse jetzt auf den Prüfstand stellen:
- Transparenz: Vermeiden Sie Formulierungen wie „Wir haben geprüft“, wenn die Prüfung nur durch eine KI erfolgt. Achten sie bei rechtsrelevanten Themen auf nachgelagerte Prüfungen durch Menschen und passen Sie Auto-Responder entsprechend an: „Unsere Systeme haben Ihre Nachricht empfangen. Ein Mitarbeiter prüft den Sachverhalt.“ Diese Aussage erfüllt dann auch die Anforderungen des Art. 50 EU AI Act.
- Human-in-the-Loop: Definieren Sie Themen, die eine KI niemals final ablehnen darf (z. B. rechtliche Beschwerden, Kündigungen, Sicherheitsmeldungen). Hier muss das System so programmiert sein, dass es den Vorgang an einen Menschen weiterleitet, statt den Kunden abzuweisen.
- Qualitätssicherung: Testen Sie Ihr System auf fälschliche Ablehnungen und Halluzinationen. Wenn die KI zu oft berechtigte Anliegen blockiert, liegt ebenfalls ein Organisationsverschulden vor.
- Logging und Beweissicherung: Protokollieren Sie, warum die KI eine Entscheidung getroffen hat. Im Streitfall müssen Sie nachweisen können, auf welcher Basis (Datenlage) die Antwort erfolgte.
- Vertragsgestaltung: Klären Sie bei externen Chatbot-Lösungen die Haftung mit dem Anbieter. Wer trägt den Schaden, wenn der Bot halluziniert?






