ChatGPT in der Rechtspraxis

Gerade in der juristischen Praxis gilt: Zeit ist Geld. Für viele Rechtsanwältinnen und Rechtsanwälte stellt sich nun durch Chat-GPT die Frage, inwiefern durch künstliche Intelligenz (KI) gestützte Textgeneratoren für Recherchen oder sogar die Erstellung von Verträgen genutzt werden können. Schließlich produzieren Chat-GPT und seine Mitwettbewerber, wie Bard oder Me-ta Llama 2, in kürzester Zeit gut lesbare Texte. Neben der unterschiedlichen inhalt-lichen Qualität der Texte, gibt es jedoch noch diverse offene rechtliche Fragen.

I. Einsatzgebiete
Um eine rechtliche Einordnung von Chat-GPT vornehmen zu können, sind zunächst mögliche Einsatzgebiete der KI festzuhal-ten. Wenn man Chat GPT selbst fragt, wo es seine Einsatzmöglichkeiten in der juristi-schen Praxis verortet, gibt es eine recht breite Palette von Anwendungsbereichen an:

  1. Rechtsrecherche
  2. Verfassen von Rechtsdokumenten
  3. Beratungen und rechtliche Meinungen
  4. Fallanalyse
  5. Schulungen und Weiterbildungen.

(Der ChatGPT-Konkurrent Bard sieht seine Einsatzgebiete übrigens in ganz ähnlichen Bereichen: Recherche und Dokumentation, Analyse und Entscheidungsfindung, Kommunikation und Übersetzung)
Alles mit dem Zusatz versehen, dass ChatGPT keine Rechtsberatung im eigent-lichen Sinne bietet und somit die Richtig-keit der Angaben nicht gewährleistet wer-den kann. Weswegen die KI nur als Hilfs-mittel genutzt werden sollte und es ratsam wäre sich bei konkreten rechtlichen Fragen an einen qualifizierten Rechtsanwalt oder Rechtsanwältin zu wenden. Somit sieht sich ChatGPT selbst als anwendbar in quasi jeglicher Konstellation der juristischen Pra-xis, nur die Qualität der Erzeugnisse sei bislang nicht verlässlich. Eine schwer wi-derlegbare Aussage, schließlich stellt in der Regel nicht die reine Erstellung eines „ju-ristischen“ Gutachtens eine besondere Schwierigkeit dar, sondern die inhaltliche Qualität der Arbeit. Dennoch, für das Prin-zip: ChatGPT schreibt, Juristen korrigieren, reichen diese Fähigkeiten aus. Dies kann bereits eine wesentliche Arbeitserleichte-rung darstellen, sodass von einer Anwen-dung von ChatGPT oder ähnlichen Text-programmen in den oben genannten Berei-chen in der Praxis auszugehen ist. Dass kaum über den Einsatz von KI in der juris-tischen Praxis offen kommuniziert wird, mag also mehr an den rechtlichen Unsi-cherheiten und bestehenden Stigmas lie-gen, die mit dem Einsatz verbunden sind, als an fehlender Praktikabilität.

II. Rechtliche Probleme verbun-den mit dem Einsatz von ChatGPT

  1. Urheberrecht
    Bezüglich des urheberrechtlichen Schutzes von KI-generierten Texten gibt es ver-schiedene Konstellationen, die rechtliche Fragen aufwerfen. Zunächst drängt sich die Frage auf, inwiefern der Output von KI-Anwendungen geschützt ist und wem – sofern vorliegend – entsprechende Schutz-rechte zustehen. Ferner kann auch der Out-put die Urheberrechte von Dritten verlet-zen.
    Wann ein urheberrechtlicher Schutz für ein Werk besteht, ist stark abhängig von dem jeweiligen Einzelfall. Zunächst lässt sich festhalten, dass aufgrund des anthropo-zentrischen Ausrichtung des Werkbegriffs die KI selbst grundsätzlich als Urheber ausgeschlossen ist. Selbst, wenn die Be-treiberfirma von ChatGPT einen urheber-rechtlichen Schutz am Output haben wür-de, sehen die Nutzungsbedingungen des ChatGPT- Betreibers OpenAI vom 14. März 2023 im Abschnitt 3. (a) vor, dass alle Rechte an dem Output dem Nutzer übertragen werden. Auch, wenn das deut-sche Urheberrecht gem. § 29 Abs. 1 UrhG keine Übertragung des Urheberrechts selbst kennt, wären die Nutzungsbedingungen zumindest als Übertragung von Nutzungs-rechten auszulegen, sodass aufgrund der Nutzungsbedingungen von OpenAI keine rechtlichen Hindernisse für die Nutzung bestehen.
    Relevanter für die juristische Praxis als die Frage, ob der eigene Outputs urheberrecht-lich geschützt ist, wäre allerdings das Risi-ko, durch die Nutzung des Outputs urhe-berrechtlich geschützte Rechte von Dritten zu verletzten. So könnten z.B. bei der Zu-sammenfassung von urheberrechtlich ge-schützten Texten am Ergebnis immer noch Rechte des Orginalurhebers bestehen.
    Allerdings ist es gerade bei Sachtexten schwerer für den potentiellen Urheber, „seinen schöpferischen Geist in origineller Weise zum Ausdruck zu bringen“, um eine entsprechende Schöpfungshöhe zu errei-chen. Schließlich ist der Inhalt von Sachtexten regelmäßig stärker von den im Text enthaltenden Informationen be-stimmt. Dies gilt auch für die juristische Fachliteratur. Denn wissenschaftliche Er-kenntnisse und Lehren selbst sind nicht geschützt. Dennoch kann die jeweilige individuelle Ausgestaltung der Darstellung eines Themas schutzfähig sein. Gerade wenn längere Textbausteine übernommen werden, die in ihrer Formulierung oder Struktur besonders hervorstechen, weil sie es z.B. schaffen, wissenschaftliche Er-kenntnis besonders verständlich vorzutra-gen, ist Vorsicht geboten. Somit ist es rat-sam gerade bei der Zusammenfassung von Texten durch KI-gesteuerte Textprogram-me, den Output auf Überschneidungen mit dem Input zu prüfen und notfalls den Out-put selbst oder durch die KI nochmals um-schreiben zu lassen.
    Besonders problematisch für den Anwen-der könnten zudem Konstellationen sein, in denen Textbausteine von Dritten durch die KI übernommen werden, aber nicht als Quellen ausgezeichnet werden, sodass der Nutzer im Zweifel gar nicht merkt, wie er die Urheberrechte Dritter verletzt. So kann auch eine gutgläubige und unverschuldete Verletzung des Urheberrechts einen An-spruch auf Beseitigung und Unterlassung gem. § 97 Abs. 1 UrhG zur Folge haben. Wenn aufgrund der blinden Übernahme von generierten Textpassagen, dem Nutzer Fahrlässigkeit vorgeworfen werden kann, käme zudem ein Schadensersatzanspruch gem. § 97 Abs. II UrhG in Betracht. Zu-dem würden, selbst wenn der urheberrecht-liche Schutzbereich gar nicht eröffnet wäre, derartige Ergebnisse eine unprofessionelle Arbeitsweise an den Tag legen und zumin-dest im akademischen Kontext nicht den Standards guter wissenschaftlicher Praxis genügen. Dies erschwert gerade den Um-gang mit ChatGPT, das im Gegensatz zu seinem Konkurrenten Bard von Google, keine Quellen der eigenen Aussagen nennt. Das Risiko derartig unbewusster Urheber-rechtsverletzungen oder Plagiate lässt sich jedoch vermindern durch die Nutzung von Plagiatsscannern oder die einfache Eingabe entsprechender Textstellen in Suchmaschinen.
  2. Datenschutz und Datensicherheit
    Bedenken gegenüber ChatGPT wurden gerade auch von Datenschützern geäußert. Die datenschutzrechtliche Relevanz ergibt sich zum einen aus der Verarbeitung perso-nenbezogener Daten, die Nutzer als Input bei ChatGPT hinterlassen haben, sowie aus der Verarbeitung von personenbezogenen Daten die aus freiverfügbaren Internetquel-len entnommen worden sind und zum Trai-ning der KI genutzt werden.
    Gerade kurz nach der Veröffentlichung von ChatGPT wurden datenschutzrechtli-che Bedenken intensiv diskutiert. In Italien wurde ChatGPT sogar zeitweise von der dortigen Datenschutzbehörde gesperrt. Als Gründe wurde die unrechtmäßige Samm-lung von Daten genannt, sowie eine feh-lende Altersverifikation für Jugendliche. Diesen Vorgaben ist OpenAI inzwischen nachgekommen, weswegen ChatGPT seit April wieder in Italien verfügbar ist. Weite-re europäische Datenschutzbehörden prü-fen aktuell das Angebot, vergleichbare drastische Schritte blieben jedoch bislang aus. Aus deutscher Sicht beschränkten sich die Landesdatenschutzbeauftragte bislang auf die Stellung von Fragenkatalo-gen an OpenAI. Zumindest nach eigener Angabe von OpenAI lassen sich die Open-AI-Angebote in Übereinstimmung mit der DSGVO, sowie dem amerikanischen CCPA, nutzen. Inwiefern dieses Verspre-chen Bestand haben wird, ist aktuell je-doch noch offen bis keine weiteren Ergeb-nisse von Seiten der Datenschutzbehörden veröffentlicht worden sind.
    Wie und in welchem Umfang ChatGPT Daten verarbeitet, lässt sich aktuell vor allem den Angaben des ChatGPT-Betreibers OpenAI entnehmen. Gemäß der FAQs von OpenAI werden weder Inputs noch Outputs des kostenpflichtigen Chat-GPT Enterprise genutzt, um die KI-Modelle von OpenAI zu trainieren. Bei Nutzung der normalen Chat-GPT-Version können jedoch entsprechende Daten zu Trainingszwecken genutzt werden, vgl. Abschnitt 3.(c) der OpenAi-Nutzungsbedingungen vom 14. März 2023. Diese Nutzung der eigenen Daten lässt sich jedoch im Rahmen eines Opt-Out-Formulars ausschließen. Im Rahmen die-ses Formulars verspricht OpenAI zudem standartmäßig jegliche erkennbare perso-nenbezogenen Daten für Trainingszwecke auszusortieren. Ob dies in jedem Fall von personenbezogenen Daten zutreffen wird, ist jedoch höchst zweifelhaft, sodass re-gelmäßig der Anwendungsbereich der DSGVO eröffnet sein dürfte.
    Wer also bei der Nutzung von ChatGPT aus datenschutzrechtlicher Perspektive si-chergehen will, sollte auf kostenpflichtige Angebote wie ChatGPT Enterprise zurück-greifen, die eine derartige Nutzung des Inputs ausschließen, und grundsätzlich die Eingabe personenbezogener Daten vermei-den.
    Was sich neben der Nutzung von Daten zu Trainingszwecken als problematisch dar-stellen könnte, ist die Übermittlung perso-nenbezogener Daten an Drittländer gem. Art. 44 DSGVO. So ist zwar bislang nicht bekannt, wo die Server von ChatGPT ste-hen. Es ist jedoch zu vermuten, dass sie in den USA verortet sind, weswegen die Entwicklungen um den Bestand des aktu-ellsten Angemessenheitsbeschlusses der EU zu Drittstaatenübermittlungen in die USA auch für Nutzer von ChatGPT eine gewisse Relevanz aufweisen dürften.
    Bezüglich der Datensicherheit gibt OpenAI an, den geläufigen Compliance-Standarts SOC 2 und SOC 3 für Informationssicher-heit zu entsprechen und diesbezüglich re-gelmäßige Audits zu durchlaufen. Alle dazugehörigen Berichte und Nachweise lassen sich auf der Website von OpenAI entnehmen.
  3. Schutz von Geschäftsgeheimnissen
    Gerade für die juristische Praxis mit am relevantesten dürfte der Umgang von Ge-schäftsgeheimnissen beim Einsatz von KI-gesteuerten Sprachmodellen sein. Denn auch wenn möglicherweise keine personen-bezogenen Daten betroffen sind, können Geschäftsgeheimnisse von Mandanten oder der eigenen Firma/Sozietät um einiges sen-sibler und wertvoller sein, als es regelmäßig bei personenbezogenen Daten der Fall ist. Grundsätzlich ergibt sich eine ähnliche Problematik wie beim Datenschutzrecht. Da KI-gesteuerte Sprachprogramme den Nutzer-Input zu eigenen Trainingszwecken sowie zur Erstellung von Output bezogen auf andere Nutzeranfragen nutzen, würde durch die Eingabe von Geschäftsgeheim-nissen bei ChatGPT, diese nicht nur aus dem Firmennetzwerk hinausgelangen, son-dern es bestünde auch die Gefahr, dass sie in veränderter Form bei anderen Nutzern als Output wieder herauskommen würden. Zudem ist es unklar, ob und wenn ja wie derart eingespeiste Geschäftsgeheimnisse wieder „zurückgenommen“ werden könn-ten. Insbesondere da ChatGPT sich nicht konkrete Informationen merkt, welche man direkt löschen könnte, sondern auf Basis des vorherigen Inputs, in Form von Trai-ningsdaten, Nutzereingaben etc., Muster erkennt und Wahrscheinlichkeiten errech-net. Fälle aus der Praxis in denen ChatGPT von Mitarbeitenden mit Geschäftsgeheim-nissen der Firma „gefüttert“ wurde, gab es bereits in prominenter Form bei Samsung, wo Mitarbeitende ChatGPT u.a. sensible Quellcodes preisgaben. Im deutschen Recht könnte das unbefugte Einspeisen von Geschäftsgeheimnissen in ChatGPT durch Mitarbeitende regelmäßig als Offen-legung gem. §§ 2 Nr. 3, 4 Abs. 2 Nr. 3 GeschGehG zu werten sein. Auch wäre es nicht fernliegend im Falle eines Chat-GPT-Leaks von einer Zugänglichmachung für die Öffentlichkeit i.S.d. § 3 I PatG zu sprechen, was Auswirkungen auf die Schutzfähigkeit von Erfindungen als Pa-tent haben würde.
    Fälle, in denen Rechtsanwältinnen oder Rechtsanwälte in Deutschland ein rechts-widriger Umgang mit schützenswerte In-formationen von Mandaten aufgrund der Nutzung von ChatGPT vorgeworfen wurden, sind bislang nicht bekannt. In der-artigen Fällen könnte zudem ein Verstoß der anwaltlichen Verschwiegenheitspflicht gem. § 43a II BRAO in Betracht kommen, die nicht nur berufsrechtliche Konsequen-zen hat, sondern auch gem. § 203 Abs. 1 StGB strafbewährt ist.
    Aufgrund der genannten Risiken ist im Rahmen der geschäftlichen Nutzung, die auch Geschäftsgeheimnisse umfasst, zu-mindest auf abgeschlossene Textgenerato-ren zurückzugreifen, welche nicht den In-put der Nutzer für eigenen Trainingszwe-cke nutzen. Gerade wenn Kunden- bzw. Mandantendaten involviert sind, wäre fer-ner eine Absprache zwischen allen be-troffenen Parteien ratsam.

III. Ausblick
KI-gestützte Textprogramme werden in der juristischen Praxis unstreitig eine immer größere Rolle spielen. Wie groß diese Rolle letztlich sein wird, wird nicht zuletzt der Gesetzgeber entscheiden. So sind auf eu-ropäischer Ebene bereits die Trilog-Verhandlungen für eine KI-Verordnung am Laufen. Beachtlich für KI-gesteuerte Sprachmodelle, die für juristische Arbeiten genutzt würden, ist dabei insbesondere, dass nach dem Vorschlag der Kommission KI-Systeme, die für Justizbehörden unter-stützend bei der Auslegung und Anwen-dung von Gesetzen tätig werden, als „Hochrisiko-KI-Systeme“ klassifiziert werden sollen, vgl. Art. 6 Abs. 2 KI- Ver-ordnung i.V.m. Anhang III – Hochrisiko-KI-Systeme (Entwurf).
Gerade größere Konzerne werden möglich-erweise in der Zukunft dahingehend über-gehen, selber mehr eigene KIs zu entwi-ckeln. Damit könnte man Bedenken bzgl. der Datensicherheit und des Datenschutzes entgegenkommen, sowie ermöglichen, der-artige Programme mit eigenen Daten evtl. auch Geschäftsgeheimnissen zu trainieren.
Zudem wäre es naheliegend, wenn in der juristischen Praxis, anstatt ChatGPT, eige-ne auf juristische Fragestellungen speziali-sierte Programme eingesetzt würden. Der-artige Programme gibt es bereits, wenn auch vor allem für den englischsprachigen Rechtskreis (z.B. Spellbook, LegalRobot, DoNotPay). Wann deutsche Anbieter nachziehen, wird voraussichtlich nur eine Frage der Zeit sein. In Deutschland wären gerade Verlage mit einem juristischen Schwerpunkt in einer guten Ausgangssitua-tion für die Entwicklung derartiger Pro-gramme. Schließlich verfügen sie über ei-nen umfassenden Zugriff auf juristische Fachliteratur, die zum Training der KI ge-nutzt werden könnte. Ebenfalls aktiv in der Entwicklung von KI-gesteuerten Sprach-modellen ist der Bund in Kooperation mit den Ländern. Gemäß dem neuesten Justiz-pakt, soll auch in die Entwicklung derarti-ger Programme für Gerichte investiert wer-den.

Zwar sind die aktuellen Systeme noch nicht bereit verlässlich eigenständige Ent-scheidungen zu treffen und somit zunächst mehr als Assistenz einer juristischen Fach-kraft dienen werden. Die Arbeit dieser neuer „Assistenz“ wird sorgfältig überprüft werden müssen, nicht nur inhaltlich, son-dern im Einzelfall auch auf mögliche Urhe-berrechtsverstöße. Ferner ist aufgrund der naturgemäßen Sensibilität von Daten im Bereich der Rechtspflege und Justiz be-sonders auf den Schutz der jeweiligen Da-ten zu achten.
Dennoch sind die lockenden Produktivi-tätsgewinne zu groß, gerade auf einem Markt, in dem menschliches Personal sehr kostenintensiv ist, weswegen KI-gesteuerte Sprachmodelle wohl aus der Zukunft der juristischen Arbeit nicht mehr hinwegzu-denken sein werden.

Martin Bangard