© Frolopiaton Palm - Freepik.com

GPTs im Arbeitsalltag – arbeitsrechtliche PerspektivenGPTs im Arbeitsalltag – arbeitsrechtliche Perspektiven

Dürfen Arbeitnehmende ihre Arbeit von einem GPT erledigen lassen und was müssen arbeitgebende Unternehmen dabei aus rechtlicher Sicht beachten? Wir gehen auf Rechte und Pflichten von Arbeitgebenden und Mitarbeiterinnen und Mitarbeitern sowie die Rolle des Betriebsrates ein.

Eine Fähigkeit generativer Künstlicher Intelligenz ist das Erstellen von Texten. Sogenannte GPT, also Generative Pre-trained Transformer, sind bereits zu erstaunlichen Ergebnissen fähig. Der Arbeitsalltag kann sich durch die Nutzung von GPT deutlich effizienter gestalten lassen.

Der Einsatz von GPT im Arbeitsumfeld kann unter verschiedenen rechtlichen Blickwinkeln Fragen aufwerfen. Unter anderem sind arbeitsrechtliche Herausforderungen vorausschauend zu adressieren. Ob Arbeitnehmende ihre Arbeit von einem GPT erledigen lassen dürfen und was das arbeitgebende Unternehmen dabei aus rechtlicher Sicht zu beachten hat, stellen wir nachfolgend vor.

Was ist ein GPT?

GPT sind generative KIs, die auf neuronalen Netzen beruhen und mit einer Vielzahl an Informationen trainiert wurden, um informative Texte zu generieren. Mit ChatGPT haben die GPT sowohl in der breiten Bevölkerung als auch im Arbeitsumfeld Einzug gehalten. GPT können aufgeworfene Fragen (Promts) mit algorithmisch erzeugten, sprachlich korrekten, Texten beantworten. Dabei bildet die KI Sätze, indem sie Wort für Wort abschätzt, welches nächste Wort mit der größten statistischen Wahrscheinlichkeit in ähnlichen Texten folgt. Möglich wird dies, indem die Systeme auf Basis immenser Datenmengen trainiert werden. Daneben verwenden Transformer einen sogenannten „Attention-Mechanismus“. Dieser ermöglicht es dem Modell, relevante Teile des Eingabetextes zu identifizieren und zu priorisieren. Hierdurch kann die Genauigkeit und Relevanz der erzielten Ergebnisse gesteigert werden.

Limitationen von GPT

Werden GPTs wie ChatGPT im Arbeitsumfeld eingesetzt, ist es wichtig, dass den Nutzenden die Grenzen des Systems bekannt sind. ChatGPT ist etwa durchaus in der Lage einfache (Rechts-)Fragen oberflächlich richtig zu beantworten. Allerdings kann es auch passieren, dass das System zwar überzeugend klingende, aber grob falsche Antworten liefert. Ein Begriff, der zu dieser Problematik in aller Munde ist, ist der des „Halluzinierens“. Von „halluzinieren“ spricht man, wenn große Sprachmodelle Informationen frei erfinden.

In den USA etwa machte ein Fall Schlagzeilen, in dem ein Anwalt von ChatGPT vorgeschlagene Präzedenzfälle ungeprüft übernahm. Fälle wie „Petersen gegen Iran Air“ und das zugehörige, überzeugend anmutende Aktenzeichen beispielsweise waren durch ChatGPT frei erfunden worden. Ähnliches tritt auch immer wieder im Zusammenhang mit von ChatGPT generierten Quellenangaben auf. Die Zeitschrift oder das Magazin mögen tatsächlich existieren, der zitierte Aufsatz, welcher angeblich in der Zeitschrift veröffentlicht wurde, kann jedoch frei „halluziniert“ sein.

Gründe für Fehler im juristischen Bereich können auch darin begründet liegen, dass sich das Recht beständig weiterentwickelt und so auch veraltete Quellen von GPT zur Generierung des Outputs herangezogen werden. Außerdem verstärkt die bekannte Tendenz Künstlicher Intelligenz, den falschen Annahmen der Nutzerin oder des Nutzers zuzustimmen, unter Umständen bestehende fehlerhafte Grundannahmen.

Wer GPTs nutzt, sollte den Output der KI immer gewissenhaft auf inhaltliche Fehler prüfen. Nicht zuletzt, um etwaige Haftungsrisiken einzudämmen.

Arbeitsrechtliche Perspektiven

Neben den genannten technischen Limitationen des Systems sind auch einige arbeitsrechtliche Anforderungen im Zusammenhang mit GPT zu beachten. Die Anforderungen lassen sich dabei drei Themenfeldern zuordnen; den Rechten und Pflichten des Arbeitnehmers, den Rechten und Pflichten des Arbeitgebers sowie den Mitwirkungsrechten des Betriebsrats.

Recht zur Nutzung von KI durch Arbeitnehmende

Grundsätzlich ist es Arbeitnehmenden freigestellt, zur Erfüllung ihrer Pflicht aus dem Dienstvertrag auch technische Hilfsmittel zu nutzen. Dies gilt für herkömmliche Bürosoftware wie „Open office“ oder Microsofts Office-Paket genauso, wie für KI. Allerdings ist nach dem Dienstvertrag kein Erfolg geschuldet (wie etwa beim Werkvertrag), sondern die Arbeitsleistung als Vorgang (§ 613 BGB ). Diese Anforderung limitiert den erlaubten Umfang der Auslagerung von Tätigkeiten auf GPT. Nicht erlaubt ist daher die Übertragung der gesamten Arbeitsleistung auf KI. Die Nutzung von KI als Hilfsmittel für Teilaufgaben, steht den dienstvertraglichen Pflichten jedoch im Allgemeinen nicht im Weg. Die Grenzziehung kann sich im Einzelfall allerdings durchaus schwierig gestalten.

Daneben unterliegt die Nutzung von Arbeitsmitteln wie Software und KI dem Direktionsrecht des Arbeitgebenden (AG) (§ 106 GewO ). Das bedeutet, dass der AG den AN sowohl anweisen kann, eine (bestimmte) (KI-)Software zu nutzen, oder ihm ebendies verbieten kann. Handelt der An dieser Anweisung zuwider, kann der AG dies mit einer Abmahnung oder Kündigung ahnden.

Komplexer für den AN ist, wenn keine durch den AG vorgegebene Richtlinie zum Einsatz von KI existiert. Verwendet der AN dann GPT, ist von einem Einsatz ohne Wissen des AG auszugehen. Der AG geht nun fälschlicherweise davon aus, die Aufgabe sei durch den AN persönlich und damit durch einen Menschen erledigt worden. Die Erledigung von Aufgaben durch KI kann jedoch für den AG sowohl datenschutzrechtliche als auch urheberrechtliche und damit haftungsrelevante Folgen haben. Aus diesen Konsequenzen folgt die nebenvertragliche (neben dem Arbeitsvertrag) bestehende Plicht zur Offenlegung der Nutzung von KI (§ 241 Abs. 2 BGB ). Der KI-Einsatz sollte daher immer mit dem/der Vorgesetzten abgestimmt werden.

Umgang mit KI-Tools durch den Arbeitgebenden

Arbeitgebende treffen im Zusammenhang mit dem Einsatz von KI-Tools durch Mitarbeiterinnen und Mitarbeiter vor allem Aufklärungs- und Schulungspflichten. Diese sollten den Umgang der AN mit z. B. ChatGPT bezüglich der Eingabe von personenbezogenen Daten, Geschäftsgeheimnissen oder weiteren Unternehmensdaten behandeln. Die klare Empfehlung geht hier dahin, Unternehmensrichtlinien zur Nutzung der entsprechenden Tools zu schaffen und die AN dahingehend zu schulen, diese Richtlinien in der Nutzung umzusetzen.

Diese Anforderung gilt bekanntermaßen im Umgang mit sämtlicher Software, die nicht im Unternehmen selbst gehostet wird, wie etwa MS 365, Google Dokumente, Amazon-cloud, etc. Die KI-spezifische Schulung kann daher in bestehende Aufklärungs- sowie Schulungskonzepte integriert werden.

Rechte des Betriebsrates vor und beim Einsatz von KI

Sowohl vor als auch während des Einsatzes von KI im Unternehmen sind die betrieblichen Mitbestimmungsrechte zu wahren. In Betracht kommt etwa die Unterrichtungs- und Beratungspflicht des Betriebsrats (§ 90 Abs. 1 Nr. 3 BetrVG). § 90 BetrVG benennt die Planung des Einsatzes von KI ausdrücklich als Fall, in welchem der Betriebsrat durch den AG unterrichtet werden muss. Dabei erstreckt sich der Umfang der Informationspflicht auch auf die Funktionsweise der KI. Darüber hinaus hat der Betriebsrat zur Erfüllung seiner Aufgaben bei Fragen zur Einführung oder Nutzung von KI das Recht, einen Sachverständigen hinzuzuziehen (§ 80 Abs. 3 S. 2 BetrVG). Die Vorschläge des Betriebsrats sind in der Planung zu berücksichtigen.

Neben der Informationspflicht nach § 90 BetrVG ist eine Informationspflicht nach § 111 BetrVG wegen Betriebsänderung denkbar. Hierfür verlangt die Rechtsprechung „einschneidende Auswirkungen auf den Betriebsablauf, die Arbeitsweise oder die Arbeitsbedingungen“. Wird KI als Hilfsmittel zur Erfüllung der ansonsten unveränderten Arbeitspflichten eingesetzt, ist dieses Merkmal in aller Regel nicht erfüllt und eine Informationspflicht nach § 111 BetrVG liegt nicht vor. Anders kann die Situation allerdings zu bewerten sein, wenn KI autonom als Arbeitskraft eingesetzt wird. Auch hier sind also stets eine Abwägung und die Bewertung des Einzelfalls vorzunehmen.

Neben den Informationspflichten kann die Mitbestimmung des Betriebsrats notwendig sein (§ 87 Abs. 1 Nr. 6 BetrVG). Dies ist immer dann anzunehmen, wenn die KI geeignet ist, das Verhalten oder die Leistung der AN zu überwachen. Hierfür genügt schon die objektive Eignung der KI zur Überwachung. Auf eine Verwendungsabsicht von Seiten des AG kommt es ausdrücklich nicht an; erst recht nicht auf die tatsächliche Verwendung. Ausreichend ist es schon, wenn der AG Informationen darüber erlangen kann, welcher AN wie oft ein bestimmtes KI-Tool nutzt. Aktuell kommt zumindest bei der Verwendung von ChatGPT ein Mitbestimmungsrecht des Betriebsrats nicht in Betracht, da der AG keinen Zugriff auf die Nutzungsdaten der AN über OpenAI hat. Es liegt aber durchaus im Rahmen des Möglichen, dass sich dies in Zukunft ändern könnte. Erlangt der AG die Nutzungsdaten von den KI-Anbietern, dann ist ein Mitbestimmungsrecht des Betriebsrats gegeben. Schon heute kann dies für KI-Tools der Fall sein, die der AG beispielsweise selbst hostet.

Auch bezüglich des Mitbestimmungsrechts des Betriebsrats ist daher stets der konkrete Einzelfall zu bewerten und pauschale, allgemeinverbindliche Aussagen verbieten sich.

Fazit

Trotz der Limitationen von KI-Systemen wie GPT versprechen sie Effizienzgewinne und somit auch den ressourcenschonenden Einsatz von Arbeitskraft im Unternehmen. Grundsätzlich haben Arbeitnehmer auch ein Recht zu Nutzung von KI als Hilfsmittel zur Erfüllung der Dienstpflicht. Dies gilt allerdings nur, soweit das ausgeübte Direktionsrecht des Arbeitgebers nicht entgegensteht. Besteht durch KI-Tools die Möglichkeit zur Überwachung der Abreitnehmer, muss das Mitbestimmungsrecht des Betriebsrats gewahrt werden. Um KI rechtssicher, transparent und effizient im Arbeitsumfeld einzusetzen, ist es zu empfehlen, dass der Arbeitgeber unternehmensinterne Leitlinien zum Einsatz von KI aufstellt, die den Arbeitnehmern in Schulungen vermittelt werden. So sind Unternehmen sowie Mitarbeitende für die GPT-unterstützte Arbeitswelt der Zukunft bestens gewappnet.

Verwandte Beiträge