Programme, Produkte und Systeme, die auf der Basis von künstlicher Intelligenz (KI) funktionieren, sind inzwischen weit verbreitet. Spätestens seit dem medialen Hype um generative, vortrainierte Transformer-Modelle wie ChatGPT beschäftigen sich auch viele kleinere und mittelständische Unternehmen damit, wie die neue Technologie gewinnbringend eingesetzt werden kann. Eine Möglichkeit besteht darin, diese bei geschäftlichen Entscheidungen einzubeziehen und sich von KI „beraten“ zu lassen. Daraus ergibt sich naturgemäß die Frage nach der Legalität eines solchen Einsatzes sowie nach dem Risiko solcher Systeme und der daraus möglicherweise resultierenden Haftung.
In diesem Nachgelesen erfahren Sie:
- Wie ein KI-System zu seinen Entscheidungen und Empfehlungen gelangt,
- welche rechtlichen Herausforderungen beim Einsatz von KI mit Blick auf die Haftung bestehen und
- wie Sie mit (falschen) Entscheidungen, die auf Basis einer KI getroffen wurden, umgehen.
KI-Entscheidungen und Empfehlungen
Bevor Fragen des Risikos und der Haftung geklärt werden können, ist es wichtig nachzuvollziehen, wie ein KI-System zu seinen Entscheidungen und Empfehlungen gelangt. Wenn derzeit von KI die Rede ist, ist regelmäßig so genannte „schwache KI“ gemeint. Sie unterscheidet sich von „starker KI“. „Starke KI“ kommt dem näher, was wir gemeinhin mit „Intelligenz“ assoziieren. Darunter fallen Systeme, die den intellektuellen Fähigkeiten von Menschen entsprechen oder diese gar übertreffen.[1] Solche Systeme existieren im Moment allerdings noch nicht. „Schwache KI“ hingegen hat die Aufgabe, konkrete (dennoch komplexe) Probleme zu lösen und bietet eine Automatisierung in diesem begrenzten Anwendungsbereich. Die Lösung erfolgt in der Regel durch Machine-Learning, also das Training eines Algorithmus auf Basis großer Datenmengen. Die dafür eingesetzten neuronalen Netze verarbeiten eingehende Informationen in einer Vielzahl von Schichten, um am Ende ein Ergebnis zu liefern. Auf diese Weise erkennt das Programm selbstständig Muster und Gesetzmäßigkeiten, die es wiederum zur Optimierung seiner Algorithmen verwendet.[2]
Durch die hohe Komplexität der Ableitungen und die große Anzahl an Schichten in den neuronalen Netzwerken ist es annähernd unmöglich, bzw. mit großen Schwierigkeiten verbunden, die Entscheidungsfindung des KI-Systems nachvollziehen zu können. Aufgrund dieser Intransparenz werden KI-Systeme, respektive ihr Entscheidungsprozess, häufig als „Blackbox“ bezeichnet. So ist zwar das Ergebnis als solches ersichtlich, jedoch der Weg dahin – auch für die Entwickler – nicht klar.[3]
Rechtliche Herausforderungen
Neben diesen technischen Grundsätzen stehen die rechtlichen Fragen des Einsatzes einer beratenden künstlichen Intelligenz. Unser Fokus soll auf der Frage der Haftung liegen.
Geschäftsführerhaftung
Um die Frage einer möglichen Haftung für den Einsatz von KI zu beantworten, muss zunächst die Frage erörtert werden, wann die Geschäftsleitung einer Kapitalgesellschaft grundsätzlich haftet. Dies richtet sich nach der Art der Gesellschaft. Dabei sind die wichtigsten Grundlagen für die Haftung § 43 GmbHG für die Geschäftsführer der Gesellschaft mit beschränkter Haftung und § 93 AktG für den Vorstand der Aktiengesellschaft. Aufgrund der überragenden Bedeutung der GmbH in der deutschen wirtschaftlichen Landschaft soll nachfolgend die Haftung des Geschäftsführers nach § 43 Abs. 2 GmbHG im Vordergrund stehen. Danach haften die Geschäftsführer für Verletzungen ihrer Pflichten „der Gesellschaft solidarisch für den entstandenen Schaden“. Man spricht hier von der „allgemeinen Sorgfaltshaftung“.[4] Die Geschäftsführer haften also für Schäden, die in Ausübung ihrer Geschäftsführerfunktion entstehen. Dabei ist der Maßstab des § 43 Abs. 1 GmbHG die „Sorgfältigkeit eines ordentlichen Geschäftsmanns“ anzulegen.[5] Diese Sorgfältigkeit ist gerade beim Treffen von Entscheidungen an den Tag zu legen.
Die Business-Judgement-Rule
Jeder Geschäftsführende hat immer einen Ermessensspielraum. Dieser ist weit zu verstehen, da eine unternehmerische Tätigkeit ohne Risiko nicht möglich ist. Wenn für jede Manifestation eines solchen Risikos der Geschäftsführer sofort haften würde, würde die Gesellschaft erstarren. Insofern muss ein Raum für Fehler bestehen. Dieser wird als „Business-Judgement-Rule“ bezeichnet und ist in § 93 Abs. 1 Satz 2 AktG normiert. Demnach liegt eine Pflichtverletzung gerade nicht vor, „wenn das Vorstandsmitglied bei einer unternehmerischen Entscheidung vernünftigerweise annehmen durfte, auf der Grundlage angemessener Information zum Wohle der Gesellschaft zu handeln“. Bei dieser aktienrechtlichen Regelung ist jedoch anerkannt, dass sie aufgrund des weitgehenden Gleichlaufes der geregelten Materie, auch auf GmbH-Geschäftsführer angewandt werden kann.[6]
Die ISION-Grundsätze
Daraus ergibt sich die Frage, nach welchen Maßstäben man beurteilen kann, ob das Handeln des Vorstandes oder Geschäftsführers auf einer Entscheidung basierte, die auf angemessenen Informationen beruhte. Dieser Frage hat sich auch der Bundesgerichtshof in seiner ISION-Entscheidung gewidmet und die so genannten ISION-Grundsätze entwickelt.[7] Im konkreten Urteil stand die Frage im Raum, wann sich ein Vorstand auf ein Rechtsgutachten verlassen und unternehmerische Entscheidungen allein auf dieses stützen kann.
Nach den ISION-Grundsätzen kann der gesetzliche Vertreter einer Gesellschaft, der selbst nicht über das erforderliche Fachwissen verfügt, den strengen Anforderungen an die Prüfung der Rechtslage und die Einhaltung von Gesetzen und Gerichtsurteilen nur gerecht werden, indem er sich umfassend über die Situation der Gesellschaft informiert und die erforderlichen Unterlagen offenlegt. Zusätzlich sollte er sich von einem unabhängigen Fachexperten beraten lassen, der über das entsprechende Fachwissen für die zu klärende Frage verfügt. Der erhaltene Rechtsrat sollte einer sorgfältigen Plausibilitätsprüfung unterzogen werden.[8]
Diese auf rechtliche Fragen ausgerichtete Entscheidung lässt sich auf andere Bereiche, in denen eine unternehmerische Entscheidung getroffen wird, die auf externes Wissen gestützt ist, übertragen. Somit sind auch die durch den BGH entwickelten Grundsätze als Maßstab für gleichgelagerte Fragestellungen anzulegen.[9]
Plausibilitätskontrolle der Beratungsleistung
Bereits gegenwärtig werden unternehmerische Entscheidungen durch künstliche Intelligenzen getroffen. Dass solch ein Einsatz von KI-Systemen zunimmt, ist gerade bei stark auf die Auswertung von Daten basierenden Entscheidungen in der Unternehmensführung nicht gerade unwahrscheinlich. Somit stellt sich die Frage, wie mit einer Entscheidung, die auf Grundlage einer von einer künstlichen Intelligenz gegebenen Beratung getroffen wurde, umzugehen ist. Insbesondere, wenn sich diese Entscheidung als falsch erweist.
Sofern sich die Geschäftsleitung durch eine KI beraten lässt, ist die Ausgangssituation zunächst vergleichbar. Eine Expertenmeinung für ein bestimmtes Gebiet, auf dem der Geschäftsleitung die Expertise fehlt, ist notwendig. Bisher wäre die Beratung durch menschliche Experten erfolgt. Nun soll ein KI-System diese Rolle einnehmen. Die Folgen, die die Anwendung der ISION-Grundsätze bei einer Beratung durch eine KI jedoch mit sich bringen, unterscheiden sich von der Beratung durch Menschen. Um die ISION-Grundsätze auch auf die „Berater-KI“ anwenden zu können, muss eine Plausibilitätskontrolle der Beratungsleistung möglich sein.
Wenn ein menschengeschaffenes Expertengutachten vorliegt, kann dieses gründlich studiert werden und die Geschäftsleitung aus der Laiensphäre bewerten, ob die Darlegungen sowie deren Begründung verständlich und einleuchtend sind.[10] Jedoch liefern KI-Systeme in der Regel keine Begründung, wie sie zu ihrer jeweiligen Entscheidung gekommen sind. Teilweise werden sogar Quellen erfunden, wenn nach diesen gefragt wird.[11] Letztlich erstellt das System eine Wahrscheinlichkeitsberechnung, deren Lösung als das jeweilige Beratungsergebnis ausgegeben wird. Dabei ist diese Wahrscheinlichkeitsberechnung aufgrund des Blackbox-Charakters von KI-Systemen jedoch nicht nachvollziehbar oder überprüfbar. Eine Plausibilitätskontrolle, wie sie bisher erfolgen muss, kann so also nicht stattfinden. Auch ein Abgleich mit den Ergebnissen anderer KI-Systeme oder weiterer Informationsquellen behebt den Mangel an Plausibilisierbarkeit nicht. Ein solcher Abgleich führt nicht dazu, dass die Lösung der KI aus sich heraus nachvollziehbar und verständlich ist, sondern vielmehr nur andere Quellen zu einem ähnlichen oder anderen Ergebnis kommen.[9] Ein Nachvollziehen des „Rats des Algorithmus“ im bisherigen Verständnis der ISION-Grundsätze ist derzeit somit nicht möglich.
Dabei stellt sich allerdings auch die Frage, ob dies so sein muss. So wird angeführt, dass sich die ISION-Grundsätze auf eine „Berater-KI“ bereits gar nicht anwenden lassen, da es (noch) keine Nachweise für ihre Expertise gibt.[12] Auch seien diese Grundsätze für eine Beratung von Menschen durch Menschen entwickelt und dementsprechend nicht ohne weiteres (meint: ohne eine Anpassung auf die Gegebenheiten) auf eine Beratung durch ein KI-System anwendbar.[12] Für diese Entwicklung müssten – durch Rechtsprechung oder Gesetzgeber – neue Grundsätze geschaffen werden, die den speziellen Charakter der Systeme künstlicher Intelligenz berücksichtigen. Dabei könnte unter anderem ein Abgleich mit anderen Systemen durchaus einbezogen werden.
Daneben ließe sich auch durch das weiter voranschreitende Forschungsfeld der explainable artificial intelligence – der erklärbaren künstlichen Intelligenz (XAI) – Methoden der Plausibilisierbarkeit implementieren, die die Anwendung der ISION-Grundsätze ohne Anpassung ermöglichen könnten. In diesem Forschungsgebiet werden Methoden entwickelt, die dabei helfen sollen, die Entscheidungsfindung von KI-Systemen nachvollziehbar zu machen.
Fazit
Die Haftung eines Geschäftsführenden für eine unternehmerische Entscheidung ist möglich, wenn die Entscheidung zu einem Schaden für die Gesellschaft führt und nicht von der Business-Judgement-Rule gedeckt war – die Entscheidung also nicht auf Grundlage einer angemessenen Information erging, sodass der Geschäftsführer davon ausgehen durfte, zum Wohle der Gesellschaft zu handeln. Als Maßstab für die Angemessenheit der Informationslage dient bisher die ISION-Rechtsprechung des BGH. Nach dieser kann eine Entscheidung auf eine Beratung oder externe Expertise gestützt werden, wenn diese für den Geschäftsführer plausibel und nachvollziehbar ist. Gerade das ist bei KI-Empfehlungen nicht der Fall. Somit ergibt sich hier die Problematik, dass eine Entlastung nach Maßstäben der ISION-Rechtsprechung nicht möglich wäre.
Ob diese jedoch tatsächlich Anwendung finden, ist in den Rechtswissenschaften bisher noch ungeklärt und wird wohl bis zu einer entsprechenden Entscheidung des BGH weiter umstritten bleiben. Es empfiehlt sich daher, KI-Beratung mit Vorsicht zu genießen. Zumal beim Einsatz entsprechender Software auch regelmäßig darauf hingewiesen wird, dass den Ergebnissen der KI nicht immer zu trauen ist.
Quellen
- Ballestrem, Johannes Graf / Bär, Ulrike / Gausling, Tina / Hack, Sebastian / Oelffen, Sabine von, Künstliche Intelligenz: Rechtsgrundlagen und Strategien in der Praxis, Wiesbaden 2020, 13.
- Gausling, Tina, Künstliche Intelligenz im digitalen Marketing, Zeitschrift für Datenschutz 2019, 335–341.
- Rudin, Cynthia, Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead, Nature Machine Intelligence 2019, 206–215.
- Drygala, Tim / Staake, Marco / Szalai, Stephan, Kapitalgesellschaftsrecht: Mit Grundzügen des Konzern- und Umwandlungsrechts, Berlin, Heidelberg 2012, 211 Rn. 61.
- Gesmann-Nuissl, Dagmar, Kompendium Wirtschaftsprivatrecht, 1. Aufl. 2022, S. 476 Rn. 1202.
- Altmeppen, Holger, in: Altmeppen, Holger (Hrsg.), Gesetz betreffend die Gesellschaften mit beschränkter Haftung – Kommentar, 11. Aufl. 2023, § 43 GmbHG, Rn. 14.
- BGH, v. 20. September 2011, II ZR 234/09, 2011, ISION.
- BGH, ebd., ISION – zweiter Leitsatz.
- Dubovitskaya, Elena / Buchholz, Annika, Die Geschäftsleitung und der Rat des Algorithmus, Zeitschrift für Wirtschaftsrecht 2023, 63–73.
- Strohn, Lutz, Beratung der Geschäftsleitung durch Spezialisten als Ausweg aus der Haftung?, Zeitschrift für das Gesamte Handels- und Wirtschaftsrecht 2012, 137–143.
- Schurter, Daniel, Wissenschaftlerin aus Zürich warnt vor gehypter KI – «ChatGPT» fälscht Zitate und Quellen, watson.ch.
- Noack, Ulrich, Organisationspflichten und -strukturen kraft Digitalisierung, Zeitschrift für das Gesamte Handels- und Wirtschaftsrecht 2019, 105–145.