Sachverhalt
Die Zivilkammer 24 des Landgerichts Hamburg hat sich in einem neuen Beschluss[1] mit der Haftung für halluzinierte Falschaussagen von Chatbots befasst. Konkret ging es um Aussagen des KI-Chatbots ‚Grok‘ auf der Plattform X. Dieser diskutierte in der Kommentarspalte zu einem Beitrag mit Nutzenden über die „schleichende Installation links-grüner Agendas“ durch Nichtregierungsorganisationen (NGOs).
Im Verlauf der Diskussion verwies Grok zwar mehrfach auf seine faktenbasierte Herangehensweise („Fakten statt Verschwörung“), halluzinierte dann aber dennoch auch alternative Fakten. Auf die Frage eines Nutzers, welche NGOs staatliche Förderung erhielten, generierte der Chatbot eine Liste mit passenden NGOs, politischer Ausrichtung sowie Informationen zur Höhe der Finanzleistung.
Unter den genannten finanzierten NGOs war auch der Campact e. V., der im Eilverfahren gegen diese Falschbehauptung vorging.
Urteil
Für Aussagen des KI-Chatbots Grok auf der Plattform X haftet die Betreiberin des zugehörigen X-Accounts, die X.AI LLC. Das Gericht hat im Wege der einstweiligen Verfügung untersagt, die im Sachverhalt dargestellte falsche Tatsache zu behaupten und/oder zu verbreiten und/oder behaupten und/oder verbreiten zu lassen.
Für die Zuwiderhandlung ist ein Ordnungsgeld von bis zu 250.000 Euro oder ersatzweise Ordnungshaft angeordnet worden. Der Streitwert wurde auf 10.000 Euro festgelegt und der X.AI LLC wurden die Kosten des Verfahrens zur Last gelegt.
Entscheidungsgründe
Das Gericht hat entschieden, dass der Beitrag des Chatbots, der zu dem Zeitpunkt der Entscheidung weiterhin einsehbar war, den Campact e. V. in seinem Vereinspersönlichkeitsrecht verletze. Damit steht dem Compact e. V. ein Unterlassungsanspruch zu (§§ 1004 Abs. 1 S. 2 analog, 823 Abs. 1 BGB i. V. m. Artikel 19 Abs. 3, Art. 2 Abs. 1 GG).
Zu den Gründen legte das Gericht dar, dass es sich bei der Aussage, der Verein erhalte Bundesmittel für seine Tätigkeit, um eine prozessual unwahre Tatsachenbehauptung handle. Diese Aussage sei im Kontext auch ehrabträglich. Somit sei die Aussage äußerungsrechtlich unzulässig.
Diese Grundsätze gelten auch, wenn die unwahre Tatsachenbehauptung durch einen KI-Chatbot behauptet oder verbreitet werde. Es sei nicht davon auszugehen, dass die weiteren Nutzenden der Plattform X der Tatsachencharakter der Aussage abweichend (geringer) einschätzen, weil sie durch eine KI getätigt wurde. Hiergegen spreche nicht zuletzt, dass die KI selbst mehrfach ihren faktenbasierten Charakter betont habe.
Für die Aussagen, die über einen Account veröffentlicht und verbreitet werden, hafte die Betreiberin des Accounts, in diesem Fall die X.AI LLC. Sie habe für die Aussagen des KI-Chatbots einzustehen, wenn sie sich diese durch Präsentation auf dem (eigenen) Account zu eigen mache.
Relevanz für Unternehmen
Das Urteil macht deutlich: Chatbots bieten zwar bedeutende Effizienzvorteile, allerdings muss ihr Einsatz gewissenhaft durchgeführt werden. Eine bedeutende Rolle spielt in diesem Zusammenhang KI-Kompetenz.
Der Begriff der KI‑Kompetenz bezeichnet allgemein die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen der KI-Verordnung ermöglichen, KI‑Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden (Art. 3 Nr. 56 KI-VO).
Für jedes eingesetzte KI-System bedarf es daher neben der Information über die Chancen auch der Information über die Risiken und mögliche Schäden, die durch das Systeme verursacht werden können. Selbstredend stellen diese Information und Sensibilisierung keinen Selbstzweck dar. Ziel ist es vielmehr, dass Verantwortliche Risiken und Schäden durch aktives Ergreifen von Maßnahmen reduzieren.
Im beschriebenen Fall von falschen Tatsachenbehauptungen durch Chatbots gilt: Wer sich Aussagen von KI-Chatbots zu eigen macht, haftet zumindest auf Unterlassung und Löschung, wenn diese KI-Chatbots falsche Tatsachenbehauptungen verbreiten. Die (falsche) Aussage des KI-Chatbots wird dem Account-Betreiber zugerechnet.
Was ist zu tun?
Da eine menschliche Kontrolle von Chat-Inhalten (in Echtzeit) nicht realisierbar ist, muss die Strategie zur Verminderung von Risiken früher ansetzen, z. B. indem vor dem Einsatz eines Chatbots eine Risikoanalyse durchgeführt wird. In deren Rahmen sind die Risiken des Chatbot-Einsatzes sowie mögliche Schäden aufzunehmen. So kann zum einen der Umfang der möglichen Haftung im Voraus eingeschätzt werden.
Zum anderen können für zuvor erkannte Risiken Risikominderungsmaßnahmen implementiert werden, um den potenziellen Schaden gering zu halten. Eine derartige Risikominderungsmaßnahme kann z. B. darin bestehen, eine Wissensbibliothek anzulegen und zu verwenden, aus welcher der Chatbot seine Antworten bezieht. Ein Beispiel hierfür stellt das RAG-Verfahren (RAG = Retrieval-Augmented Generation) dar.[2] Dieses kann die Wahrscheinlichkeit von Halluzinationen von vornherein senken.[3]
Halluzinationen durch LLM-Chatbots können jedoch nie zu 100% ausgeschlossen werden.[4] Daher sollte weiter eine Anlaufstelle für Beschwerden eingerichtet werden, deren Ziel es ist, die Fehler für die Zukunft zu beheben, bevor es zu teuren Gerichtsverfahren über die Löschung von falschen Chatbot-Aussagen kommt. Bei einer solchen Beschwerdestelle sollten 24/7 Gesuche eingehen können, die im Anschluss in einem angemessenen Zeitrahmen bearbeitet werden. Zur Umsetzung bietet sich ein elektronisches Formular an, in welchem durch Falschinformationen Betroffene ihre Beschwerde möglichst konkret und nachvollziehbar darstellen können. Die formalisierte Darstellung der Beschwerden ermöglicht die Bearbeitung der eigehenden Gesuche. So kann der Verantwortliche seinen Pflichten wie der Löschung von Beiträgen oder Unterdrückung gewisser Chatbot-Aussagen mit möglichst geringem administrativem Aufwand nachkommen.
Quellen
- LG Hamburg Beschl. v. 23.9.2025 – 324 O 461/25, GRUR-RS 2025, 27056. Siehe dazu auch die Besprechung des Urteils von Gesmann-Nuissl in: Zeitschrift Innovations- und Technikrecht (InTeR) 2025, S. 193 ff.
- Trendradar: Unternehmenswissen besser nutzen mit KI und Retrieval Augmented Generation
- Fraunhofer IESE, Retrieval Augmented Generation (RAG): Chatten mit den eigenen Daten, abrufbar unter: https://www.iese.fraunhofer.de/blog/retrieval-augmented-generation-rag/ (10.11.2025).
- Kalai et. al., Why Language Models Hallucinate, abrufbar unter: https://doi.org/10.48550/arXiv.2509.04664 (10.11.2025).






