News

KI - Künstliche Intelligenz Rechtsfragen

Rechtsanwalt Künstliche Intelligenz

Künstliche Intelligenz (KI) lässt die Welt anders erscheinen als sie ist und erschafft Wirklichkeiten, die tatsächlich nicht bestehen. Daran knüpfen sich mehrere Rechtsfragen: Kann man KI erkennen? Kann KI Verträge schließen? Wem stehen die Rechte azu, die KI-generiert ist? Was sind sind DeepFakes? Welche Rolle spielt KI im Strafrecht? Ist eine Kennzeichnungspflicht nötig?

Künstliche Intelligenz (KI) – Was ist das eigentlich?

Der Begriff Künstliche Intelligenz (KI), oder englisch artificial intelligence (AI) stammt aus der EDV. Maschinen bzw Computer sollen dadurch „intelligent“ gemacht werden. Ziel ist es, dass die Maschine, der Computer, ähnlich handeln bzw reagieren soll, wie ein Mensch. Computerprogramme könnten dabei Muster in großen Datenmengen erkennen, Schlussfolgerungen ziehen, Probleme lösen, Sprache verstehen und produzieren, visuelle Informationen verarbeiten und vieles mehr. KI-Systeme können sowohl auf vordefinierten Regeln als auch auf maschinellem Lernen und neuronalen Netzen basieren, um ihre Fähigkeiten zu erweitern und zu verbessern. KI-Systeme finden in vielen Bereichen wie Medizin, Finanzen, Transport und Sicherheit Anwendung. Getrieben durch eine schier unbegrenzte Rechenleistung von modernen Computersystemen und entsprechende Software sind KI-Systeme heute in der Lage bemerkenswerte Leistungen zu erbringen, wie etwa das sechste Buch der Serie Game of Thrones, die Vollendung der 10.Sinfonie von Beethoven, das Drehbuch des Kurzfilms Sunspring oder das Bild Portrait of Endmond de Belamy.

Kann man KI selbst nutzen?

Über frei zugängliche Software kann heute jedermann KI nutzen. So kann man zB über Bing Image Creator oder Dall-E computergenerierte Bilder erstellen. Mit ChatGPT lassen sich Texte erstellen. Das Modell wurde auf einer enormen Menge von Texten trainiert und kann auf Anfragen in natürlicher Sprache antworten. Es wird z.B. als Chatbot auf Websites eingesetzt, um Kundenfragen zu beantworten oder als personalisierter Sprachassistent auf mobilen Geräten. KI-Systeme sind in der Basisversion meist kostenlos. Oftmals besteht aber nur eine begrenzte Zahl kostenloser Kreationen. Danach muss man dafür bezahlen. Die Regeln für die Nutzung der Texte und Bilder finden sich in den Nutzungsbedingungen der Software, die zu prüfen ist. In den meisten Fällen sperrt die Software die Verarbeitung von Personen(-namen) und von gewissen Begriffen.

Urheberrecht bei KI - Wem gehören die Inhalte?

Wem gehören die von künstlicher Intelligenz kreierten Inhalte? Diese Frage wird aktuell laufend gestellt. Einerseits werden sie durch ein Computerprogramm geschaffen, das von Menschen programmiert wurde, und diese werden ihre (urheberrechtlichen) Ansprüche darauf geltend machen. Andererseits verwenden Programme wie ChatGPT und Software zur Bildkreation wohl Texte und Bilder aus dem Internet, die selbst eigene Urheber haben.

Da § 1 Abs 1 UrhG eine eigentümliche geistige Schöpfung voraussetzt, kommt als Urheber immer nur eine physische Person in Betracht. Das Konzept des Urheberrechts geht vom Schutz jener kreativen Leistung aus, die ein Mensch als Schöpfer hervorbringt (§ 10 UrhG). Nur ein Erzeugnis menschlichen Geistes kann urheberrechtlich geschützt sein (4 Ob 3/92). Dient eine Maschine dem Menschen im Rahmen eines urheberrechtlichen Schaffungsprozesses nicht nur als Werkzeug, sondern werden Werke ohne das Eingreifen eines gestaltenden Menschen zB nur vom Computer geschaffen, liegt kein urheberrechtlich schützbares Werk vor (4Ob105/11m). Das bedeutet, dass die KI-Software selbst bzw die juristische Person, die die Software erstellt hat, nicht Urheber sein können und Ergebnisse von KI nicht urheberrechtlich geschützt sind.

Eingeschränkte Erkennbarkeit

Ein weiteres Problem ist die eingeschränkte Erkennbarkeit von mit künstlicher Intelligenz erschaffenen Inhalten. Bilder und Videos, die durch Künstliche Intelligenz erzeugt sind, können unter bestimmten Umständen erkannt werden. Zeigen KI-generierte Bilder eine menschliche Hand ist diese oft nicht realistisch oder zeigt zu viele oder zu wenige Finger. Dinge, die bei KI-Bildern nicht zusammenpassen, nennt man Artefakte. KI-generierte Texte können von Menschen meist nicht erkannt werden. Es existiert allerdings bereits Software (wiederum KI, wie zB Writer's AI Content Detector Tool oder GPT-2 Output Detector), die in der Lage ist, KI zu erkennen. Der Text in diesem Beitrag ist laut einer Prüfung im GPT-2 Output Detector auf openai-openai-detector.hf.space übrigens zu 99,97% real. Dass ChatGPT derart professionelle Texte erstellen kann, die selbst von Universitätsprofessoren nicht als solche erkannt werden, wurde bereits diskutiert. In Zeiten von Fake News wird es jedoch immer schwieriger, im Internet angebotene Informationen zu überprüfen. Dies betrifft sowohl Fotos (Stichwort Deep-Fake) als auch Texte. Mit Programmierkenntnissen ist es problemlos möglich, Fake-Profile auf Facebook etc. zu erstellen und gezielt Meinungen zu verbreiten. Theoretisch ist es mit Software wie ChatGPT auch vorstellbar, eine Onlinezeitung ausschließlich mit künstlicher Intelligenz zu betreiben und Meinungen zu beeinflussen. Unkontrollierte Beeinflussung der öffentlichen Meinung ohne Faktenchecks und moralische Standards der Berichterstattung kann damit rasch demokratiegefährdend werden.

DeepFakes

Deepfakes sind Medieninhalte (Foto, Audio und Video), die real wirken, aber nicht real sind und durch KI erstellt, geändert oder verfälscht wurden. Bei "face swapping“ wird das Gesicht einer Person durch jenes einer anderen beliebigen Person ersetzt, um einen anderen Kontext herzustellen (zB mit der Software DeepFaceLab). Die Manipulation sprachlicher Inhalte nennt man „voice swapping“. Als „body-puppetry“ wird die Übertragung von Körperbewegungen auf andere Personen in Videomaterial bezeichnet.

Im Jahr 2022 wurden mehrere Politiker Opfer von DeepFakes. Berichtet wurde über ein Fake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj, in dem er ukrainische Soldaten aufrief, sich zu ergeben. Ylva Johansson (EU-Innenkommissarin), Franziska Giffey (Bürgermeisterin Berlin), José Luis Martínez-Almeida (Bürgermeister Madrid), Gergely Karácsony (Bürgermeister Budapest) und Michael Ludwig (Bürgermeister Wien) wurde im Juni 2022 vorgetäuscht, sie würden eine Videokonferenz mit Vitali Klitschko (Bürgermeister Kiew) führen. Ende März 2023 gingen Fotos viral in denen Papst Franziskus in einer weißen Daunenjacke zu sehen war.

DeepFakes haben zudem eine Bedeutung in Pornovideos erlangt. 2017 wurden Pornovideos erstellt, in denen scheinbar die Schauspielerinnen Emma Watson, Katy Perry, Taylor Swift und  Scarlett Johansson zu sehen waren. Die entsprechenden Sequenzen wurden unter Verwendung künstlicher Intelligenz erstellt. Durch den Einsatz von DeepFakes wurden auch Rachepornos ohne Mitwirkung der im Video erscheinenden Person möglich, was die Seite Pornhub veranlasste, anzugeben, diese Inhalte künftig zu sperren.

DeepFakes können auch für Betrugverwendet werden. Durch Vortäuschen einer bekannten Person (zB Vater, Mutter, sonstige Verwandte oder Freund) nicht nur über Textnachrichten und den Anruf mit deren Telefonnummer (Caller ID Spoofing), wie das heute bereits passiert, sondern über Sprache (Imitation der Stimme mit künstlicher Intelligenz) oder über Videos oder Videotelefonie könnten Opfer getäuscht werden und Gelder auf fremde Konten überweisen. Vorstellbar sind auch künstlich generierte Erpressungsvideos bzw Erpressungsfotos.

Vertragsabschluss durch KI

Rein technisch ist es vorstellbar, dass KI-betriebene Programme selbstständig miteinander Verträge abschließen oder Verträge ausformulieren. Das österreichische Recht unterscheidet jedoch zwischen Rechtssubjekten (Personen) und Rechtsobjekten. Nur Rechtssubjekte können wirksam Verträge schließen. Daher müsste man die KI-Programme einer Person zurechnen können, damit ein Vertrag rechtswirksam abgeschlossen werden kann. Dies wäre etwa durch eine Vorauserklärungen, allen von der KI geschlossenen Verträgen unter bestimmten Konditionen zuzustimmen, möglich. Hierdurch könnte jedoch, etwa für Konsumenten ein großer Schaden entstehen.

Arbeitsmarkt

KI, insbesondere Programme wie ChatGPT, werden Auswirkungen auf den Arbeitsmarkt haben. Die Möglichkeit, einfach und automatisiert professionell wirkende Inhalte erstellen zu können, bringt künstliche Intelligenz in Konkurrenz mit vielen Branchen, zB Marketing, Programmierer, Journalismus, Rechtsdienstleistung, Übersetzer, usw. Dabei ist immer zu bedenken, dass die Technologie noch jung ist und sich in Zukunft noch weiter entwickeln wird.

Risiken von künstlicher Intelligenz

Künstliche Intelligenz birgt Risiken. Wenn die Daten, mit denen das KI-System gefüttert wird, fehlerhaft sind, ist auch das Ergebnis fehlerhaft, was zu falschen Entscheidungen führen kann. Die schon erwähnte Auswirkung auf den Arbeitsmarkt kann dazu führen, dass Menschen ihre Arbeitsplätze verlieren, was schon seit dem Fortschreiten der Automatisierung bekannt ist. Potentielle Verletzungen von Regeln zu Datenschutz und Datensicherheit liegen auf der Hand. Sollten Entscheidungen auf Basis von KI getroffen werden, stellen sich angesichts der Frage der Verantwortung für die Entscheidungen ethische und moralische Fragen. Schließlich erleichtert künstliche Intelligenz auch die Begehung von Straftaten.

Sind Kennzeichnungspflicht oder gesetzliche Regeln notwendig?

Die bisherigen Ausführungen zeigen, dass das Potential künstlicher Intelligenz enorm ist, aber auch viele Risiken birgt. Viele Menschen erkennen nicht, dass Sie es mit Inhalten zu tun haben, die nicht von Menschen stammen. Es wäre daher angemessen, eine gesetzliche Regelung vorzusehen, die eine Kennzeichnungspflicht für Inhalte enthält. Zudem sollten entsprechende Bestimmungen in das Gesetz gegen den unlauteren Wettbewerb, das Mediengesetz und das Strafgesetzbuch eingearbeitet werden.

Rechtsanwalt Künstliche Intelligenz

Rechtsanwalt Dr. Johannes Öhlböck LL.M. beschäftigt sich seit vielen Jahren mit dem Recht der neuen Medien und berät und vertritt seine Klienten vor Gerichten und Behörden.