Deepfakes – welche Beweiskraft haben Bild- und Tonaufnahmen noch?

© Pablo Xavier – KI-generierte Bilder des Papstes in einer modischen Daunenjacke gingen im Internet viral

I. Was sind Deepfakes und wo liegt der Unterschied zu bisherigen Medienmanipulationen?

Im Zuge der jüngsten Entwicklungen im Bereich der Künstlichen Intelligenz (KI) gehören mittels KI-Technologie generierter Medieninhalte, sog. Deepfakes, neben Textprogrammen wie ChatGBT, zu den prominentesten Vertretern jener technischen Revolution. 

Deepfakes haben bereits im Internet für Furore gesorgt und das Vertrauen der Nutzer:innen in die Echtheit von Bildern und Videos stärker in Frage gestellt, als es noch vor wenigen Jahren denkbar war. Zwar ist das Konzept der Manipulation von Bildern, Videos oder Audiodateien so alt wie die jeweiligen Medien selbst. Doch im Gegensatz zu früheren Medienmanipulationen, die oft auf einfacheren Bearbeitungswerkzeugen basierten und eine gewisse technische Expertise erforderten, ermöglichen es Deepfakes praktisch jedem mit einem Computer und Internetzugang, täuschend echte gefälschte Inhalte zu erstellen. Aufgrund der einfachen Erstellung und der großen Zahl an möglichen Erstellern, wird schon heute die Öffentlichkeit mit einer bisher undenkbaren Masse an Deepfakes überflutet.

 

Gerade für den politischen Meinungsbildungsprozess sind die potentiellen Auswirkungen von Deepfakes bereits öffentlichkeitswirksam diskutiert worden. Auch die rechtlichen Konsequenzen im Falle von möglichen Persönlichkeits-, Urheberrechts- oder Datenschutzrechtsverletzungen haben in der juristischen Fachliteratur größere Aufmerksamkeit erfahren.[1]

Mindestens ebenso relevant für die zivilrechtliche Praxis, bislang aber kaum beachtet, ist die Glaubhaftigkeit von Medieninhalten im Rahmen der gerichtlichen Beweisaufnahme. Nicht selten entscheidet sich der Ausgang eines Prozesses – rechtsgebietsübergreifend – durch die Vorbringung von Beweisen in Form von Medieninhalten, deren Glaubhaftigkeit nun durch Deepfakes fundamental in Frage gestellt wird. Gerade auch im Bereich des Gewerblichen Rechtsschutzes können in Patent-, Marken- oder Designrechtsstreitigkeiten entsprechende Medieninhalte als Beweismittel eine zentrale Rolle spielen.

II. Welche Auswirkungen haben Deepfakes für die gerichtliche Beweisaufnahme?

Zunächst ist festzuhalten, dass derartige Manipulationen teilweise nicht mehr vom bloßen menschlichen Auge erkennbar sind. Im Rahmen eines Zivilprozesses hat dies zunächst Auswirkungen auf den Beweis durch Augenschein, welcher in den §§ 371 ff. ZPO der deutschen Zivilprozessordnung geregelt ist. So scheint es nicht abwegig, dass Bilder, Videos oder Tonaufnahmen, die als Beweis zum Augenschein vorgelegt werden, in ihrem Beweiswert im Rahmen der freien Beweiswürdigung gem. § 286 ZPO sinken. Auch erscheint es durchaus denkbar, dass derartige Beweismittel von der gegnerischen Seite regelmäßig als Deepfake angezweifelt werden könnten. Aktuell beteuern die Anwälte von Elon Musk bereits in einem gegen Tesla gerichteten Schadensersatzprozess, dass sie nicht die Echtheit eines Video von Musk verifizieren können, in dem er seinen Glauben an die Sicherheit des Tesla-Autopiloten bekräftigt.[2] Schließlich sei er als Person des öffentlichen Lebens laufend Deepfakes ausgesetzt, die im Aussagen in den Mund legen würde, welche er nie getroffen hätte.

Die zuständige Richterin äußerte sich zwar durchaus kritisch bezüglich des vorgebrachten Arguments, es könnte dennoch bereits eine erste Vorschau sein, wie es möglichweise auch bald vor deutschen Gerichten zugehen könnte. Die These, nach der Deepfakes Fotos, Videos etc. vollständig ihrer Beweiskraft entledigt, scheint jedoch auch etwas zu weit gegriffen sein. Aufgrund des Fehlens fester Beweisregeln in der Zivilprozessordnung, wird es von den einzelnen Richter:innen abhängen, wie sehr sie die Glaubhaftigkeit von entsprechenden Medieninhalten einstufen werden. Eine Konsequenz könnte die Hinzuziehung von entsprechenden Sachverständigen sein, wobei aktuell derartiger Sachverstand vergleichsweise rar ist. Fraglich ist somit insbesondere, wie mit potentiell manipulierten Medieninhalten umgegangen werden kann, wenn externer Sachverstand nicht oder nur eingeschränkt verfügbar ist. In solchen Fällen könnte es durchaus denkbar sein, dass der Beweiswert von Deepfake-anfälligen Medieninhalten durchaus sinken wird. Allerdings sind bereits verschiedenste Deepfake-Erkennungssoftwares verfügbar, die entsprechend einfach und vergleichsweise kostengünstig sind.[3] Sollten sich derartige Erkennungssoftwares als verlässlich herausstellen, könnte dies sogar die Beweiskraft von Medieninhalten stärken. 

II. Welche Konsequenzen drohen bei der Nutzung von Deepfakes als Beweismittel vor Gericht?

Auch wenn die Mittel neu sind, mit denen Deepfakes erstellt werden, ist die grundsätzliche Konstellation der Manipulation eines Beweismittels nicht neu. Insbesondere kann ein Deepfake, der als vermeintlicher Beweis in einem Gerichtsprozess genutzt wird, unter Umständen als Prozessbetrug – ein Unterfall des Betrugs – gem. § 263 StGB mit bis zu fünf Jahren Freiheitsstrafe geahndet werden.[4] Ferner kann die Erstellung von Deepfakes diverse rechtliche Probleme aufwerfen, wie z.B. einen Verstoß gegen das allgemeine Persönlichkeitsrecht.[5] Wobei dies unabhängig von dem Einsatz als manipuliertes Beweismittel der Fall ist.

IV. Fazit und Ausblick

Konsequenterweise wird sich ein:e Richter:in in Zukunft bei der Einschätzung der Glaubwürdigkeit von Fotos, Videos oder Tonaufnahmen weniger auf den eigenen Augenschein verlassen und stattdessen häufiger technische Hilfe und Sachverständige hinzuziehen müssen, wie es die ZPO bereits in § 372 ZPO ermöglicht. Doch die Beweiskraft von Fotos, Videos oder Tonaufnahmen wird wohl zunächst nicht vollständig verschwinden. Vielmehr ist es zu erwarten, dass es auf ein Katz-und Maus-Spiel der Entwickler:innen hinausläuft, wie es z.B. im Bereich der IP-Sicherheit bereits der Fall ist.

So werden die neuen technischen Mittel möglicherweise vor allem zu mehr Aufwand auf allen Seiten bei der Erstellung und Erkennung von derartigen Manipulationen führen. Letztlich wird es entscheidend sein, wie viele Ressourcen die deutsche Justiz bereit ist, in die Aufdeckung von Deepfakes zu investieren und ob die Möglichkeiten zur Aufdeckung von Deepfakes technisch mithalten können.

[1] Lantwin, MMR 2019, 574; Kumkar/Rapp, ZfDR 2022, 199, 212; Schürrmann, ZD 2022, 316.

[2] https://www.reuters.com/legal/elon-or-deepfake-musk-must-face-questions-autopilot-statements-2023-04-26/.

[3] https://www.chip.de/news/Fake-News-Videos-erkennen-Kuenstliche-Intelligenz-analysiert_183371310.html.

[4] Kindhäuser/Neumann/Paeffgen/Saliger, § 263 Rn. 340, StGB 6. Auflage 2023.

[5] Deepfakes ZfDR 2022, 199, 205.

Martin Bangard