Suche
Close this search box.

Wie sicher ist die KI als Quellenangabe?

Darf ich eine KI als Quelle angeben?

Sobald KI-generierte Inhalte Informationen enthalten, entstehen (rechtliche) Probleme. Nicht umsonst warnen Experten vor groß angelegter Fehl- und Desinformation. Schnell stellt sich die Frage, wie sich KI-Content auf der eigenen Website rechtssicher einbinden lässt. Dazu nimmt Rechtsexperte Christian Solmecke im folgenden Artikel Stellung.

Generative Künstliche Intelligenz (KI) mausert sich zu einem anerkannten Tool. Überall dort, wo routinemäßige Texte erstellt werden müssen, glänzen KI-Systeme wie ChatGPT oder Bard mit ihrer Effizienz und dem vermeintlich unerschöpflichen Fundus an komplexerem Wissen. Wenn ich nun meine Landingpage oder einen Blogartikel mit Künstlicher Intelligenz erstellen lasse, wen gebe ich eigentlich als Autor an? Und wer haftet für falsche Angaben?

Ist KI eine Quelle?

Vielen Verwendern von KI-Systemen stellt sich die Frage, wie sie nun auf ihrer Website angeben, dass sie für einen bestimmten Text Künstliche Intelligenz verwendet haben. Vor allem, wenn es um konkrete Informationen geht: Reicht „die KI“ als Quelle, oder muss ich denjenigen finden, von dem die KI die Information hat? Dafür ist zunächst wichtig zu wissen, wie genau die KI an die Informationen „herankommt“.

Wann sind grundsätzlich Quellenangaben nötig?

Grundsätzlich gilt: Außerhalb von journalistischen und wissenschaftlichen Beiträgen braucht es für einfache Informationen grundsätzlich keine Quellenangaben. Eine Quellenangabe ist rein rechtlich z. B. in Pressemitteilungen oder anderen Unternehmenspublikationen nur notwendig, wenn es sich dabei um ein wörtliches Zitat eines Dritten im Sinne der Urheberrechtsgesetzes handelt (§ 51 UrhG). Wer nur Informationen zusammenträgt, ohne die Formulierung eines Dritten zu übernehmen, muss die einzelnen Informationsquellen in einem Unternehmenskontext daher zumindest aus rechtlichen Gründen nicht belegen.

Wie kommt die KI an ihre Informationen?

Nach wissenschaftlichen oder journalistischen Standards wäre KI allerdings keine taugliche Quelle. Das hängt mit ihrer Funktionsweise zusammen. KI-Systeme wie OpenAIs ChatGPT oder Googles Bard arbeiten prozedural-transformativ. Durch sog. „Deep Learning“ werden komplexe Datensätze erstellt, die Gesetzmäßigkeiten und Muster statistisch miteinander verbinden. Zum Training dieses sog. neuronalen Netzes werden enorme Ansammlungen von Text-Daten wie Bücher, Artikel und Websites verwendet. Die Eingabe eines Nutzers wird dann als Ganzes mit dem neuronalen Netz abgeglichen und anhand dessen wird stückweise (prozedural) eine plausible Antwort generiert.

Das Wissen liegt also zum Zeitpunkt der Eingabe nicht mehr in seiner eigentlichen Form vor. Stark vereinfacht gesagt „rät“ das KI-System eine statistisch wahrscheinliche Antwort auf die konkrete Eingabe anhand des neuronalen Netzes. Aus diesem Grund warnen OpenAI und Google auch vor inhaltlichen Fehlern („ChatGPT can make mistakes. Consider checking important information.“ 22.02.2024). Häufig entstehen inhaltlich richtige Ergebnisse, eine Garantie gibt es aber nicht. Eine Quellenangabe würde somit ohnehin kaum einem richtigen Zweck dienen.

KI als Quelle für allgemeine Informationen angeben

Keine Probleme liefern allgemeinere, textgestalterische Anfragen. Der Prompt „Schreibe mir einen Text für eine Unternehmens-Landingpage“ generiert bei ChatGPT 3.5 in unserem Fall zum Beispiel Folgendes:

„Herzlich willkommen bei [Unternehmensname], Ihrem Partner für innovative Lösungen und erstklassigen Service. Wir sind ein führendes Unternehmen in unserem Bereich und stolz darauf, unseren Kunden qualitativ hochwertige Produkte und Dienstleistungen anzubieten.

Unser Engagement für Exzellenz spiegelt sich in allem wider, was wir tun. Von der Produktentwicklung bis hin zur Kundenzufriedenheit steht bei uns stets die höchste Qualität im Mittelpunkt. Wir streben danach, die Erwartungen unserer Kunden zu übertreffen und langfristige Beziehungen aufzubauen, die auf Vertrauen und Zuverlässigkeit basieren.

(gekürzt nach: OpenAI’s ChatGPT AI language model v3.5, persönliche Kommunikation, 22.02.2024)

Solche generischen Textbausteine haben derartig wenig Informationsgehalt, dass die Nutzung weitestgehend unverfänglich sein wird. Jedenfalls urheberrechtlich können diese auch ohne Quellenangaben verwendet werden. Festzuhalten bleibt: Unternehmerinnen und Unternehmer sind also nicht grundsätzlich urheberrechtlich verpflichtet, KI-Content auch als solchen zu kennzeichnen.

Quellenangabe als Absicherung bei rechtswidrigen Inhalten?

Es gibt allerdings einen Fall, der rechtliche Probleme aufwirft: Durch die Funktionsweise von KI ist es theoretisch denkbar, dass Textbausteine generiert werden, die urheberrechtlich geschützten Werken zufälligerweise entsprechen, oder diesen stark ähneln. Da der KI-Verwender die Ausgangswerke aber nie gesehen hat (etwa den Blogbeitrag, dem der Output zufällig entspricht), stellt sich die Frage, ob dann in der Veröffentlichung des KI-generierten Inhalts (durch einen Menschen) eine Urheberrechtsverletzung liegt.

Solche Fälle wurden noch nicht entschieden. Es gibt in der Rechtsprechung allerdings die Doppelschöpfung und die unbewusste Entlehnung. Bei der Doppelschöpfung kreieren zwei Urheber zufällig unabhängig voneinander ein ähnliches Werk. Dann verletzt das jüngere nicht die Rechte des älteren, denn keiner hat vom anderen plagiiert. Anders liegt es bei der „unbewussten Entlehnung“. Hier meint ein Künstler nur, ein neues Werk geschaffen zu haben, dieses basiert jedoch auf seiner unbewussten Erinnerung an ein vorher bestehendes. Hier hat der Verwender zwar nicht vorsätzlich plagiiert. Allerdings ist es für ein Plagiat nicht von Bedeutung, ob er sich der Verletzung bewusst war. Das ist nur relevant für die Folgeansprüche. So dürfte dann auch der Fall bei der Übernahme fremder Texte durch KI liegen. Was aber sind die Folgen?

Es entsteht in jedem Fall ein Beseitigungsanspruch: Sobald der Verwender – etwa durch eine Abmahnung – Kenntnis erlangt, muss er den betreffenden Textbaustein entfernen. Auch eine KI-„Quellenangabe“ entlastet da nicht. Für einen weitergehenden Unterlassungsanspruch müsste für die Verletzung eine Wiederholungsgefahr bestehen (§ 97 Abs. 1 UrhG). Diese entfällt grundsätzlich, wenn man eine strafbewehrte Unterlassungserklärung abgibt. Allerdings könnte man – das wurde aber noch nicht entschieden – auch ohne eine solche annehmen, dass sie nicht besteht, wenn durch eine vorherige Kennzeichnung klar war, dass der Text KI-generiert war. Damit dürfte die Wahrscheinlichkeit, noch einmal von genau diesem Urheber per KI zu plagiieren, sehr gering sein.

KI als Quelle angeben – Schadensersatz bei Falschinformationen?

Was aber ist mit dem Schadensersatzanspruch? Hier müsste dem Ersteller nachgewiesen werden, dass er die Urheberrechtsverletzung zumindest fahrlässig begangen hat (§ 97 Abs. 1 UrhG). Dazu gibt es im Fall von KI noch keine Rechtsprechung. Jedenfalls im Fall der unbewussten Entlehnung wurde auch schon einfache Fahrlässigkeit angenommen. Nun erscheint es mir allerdings auch recht weit, durch die bloße Nutzung von KI schon einen Fahrlässigkeitsvorwurf im Hinblick auf das Urheberrecht zu machen. Dann müsste man jeden Nutzer von KI verpflichten, zuvor eine Plagiatssoftware über den Text laufen zu lassen. Wie ein Gericht das sehen würde, ist derzeit nicht abzusehen. Ein vorheriger KI-Hinweis kann hier möglicherweise jedenfalls in der Praxis helfen, einem Abmahnenden klarzumachen, dass es sich hierbei wahrscheinlich nicht um eine schuldhafte Verletzung von Rechten ging. Eine Garantie, nicht doch auf Schadensersatz verklagt zu werden, ist das aber nicht.

Abseits vom Urheberrecht ist auch denkbar, dass generierte Inhalte etwa Falschaussagen über Personen oder Unternehmen enthalten und dadurch deren Rechte verletzen. Wenn der Text etwa das Allgemeine Persönlichkeitsrecht einer Person verletzt, haftet dafür normalerweise auf Beseitigung, Unterlassung oder Schadensersatz, der ihn verfasst hat bzw. der publizistisch dafür verantwortlich ist. Hier würde ich – anders als beim Urheberrecht – schon eher einen Fahrlässigkeitsvorwurf sehen, wenn man einen KI-Text, der potenziell die Rechte Dritter verletzt, ungeprüft online stellt. Der bloße Hinweis auf die KI als Quelle kann da auch kaum helfen. Möglicherweise könnte aber der insoweit geringere Schuldvorwurf einen eventuellen Anspruch auf immateriellen Schadensersatz mindern.

Transparenzpflichten nach dem AI-Act

Der kommende europäische AI-Act, der zuletzt in Trilogverhandlungen zwischen den Unionsorganen stand, könnte an der Lage etwas ändern. Das KI-Gesetz sieht breite Transparenzpflichten für Anbieter („provider“) und Anwender („deployer“) vor. So müssen Anbieter von KI-Systemen laut dem aktuellen Entwurf dafür sorgen, dass der synthetisch generierte Inhalt auch maschinell als solcher erkennbar ist. Und auch Anwender trifft – ausdrücklich bisher allerdings nur bei Deepfakes – die Pflicht, das KI-generierte Werk als solches zu kennzeichnen. Inwiefern davon allerdings einzelne Texte und Textbausteine betroffen sein werden, ist noch nicht abzusehen. Das hängt insbesondere davon ab, für welche Methoden sich Anbieter wie OpenAI entscheiden, sollte das Gesetz wie geplant im Mai beschlossen werden und in Kraft treten.

Mehr Nutzen als Schaden

Bis dahin gilt: Unternehmerinnen und Unternehmer trifft keine grundsätzliche Pflicht, KI-generierte Informationen auf ihrer Website zu belegen. Landingpage-Textbausteine oder Blog-Artikel können nach aktueller Rechtslage auch ohne Quellenangaben veröffentlicht werden.

Das macht KI allerdings unter keinen Umständen zu einer sauberen Informationsquelle. Wer informationsreiche Texte nicht durch eine Plagiatssoftware überprüft und Inhalte gegencheckt, kann Rechte Dritter verletzen. In diesen Fällen kann ein KI-Hinweis ein wenig abhelfen, schafft aber keine absolute Rechtssicherheit.

Wer sich bestmöglich absichern will, kann sich hier wenigstens an wissenschaftliche Zitiergrundsätze halten. Die gängigen Zitiersysteme haben hierfür noch keine allgemeinen Richtlinien. Es wird allerdings genügen, das Resultat entweder als persönliche Kommunikation zu zitieren:

„OpenAI’s ChatGPT Sprachmodell, Antwort auf eine Frage der Autorin, [Datum].“ (entspr. Deutsche Zitierweise) oder

„OpenAI’s ChatGPT AI language model, persönliche Kommunikation, 14.02.2023“ (entspr. APA)

Auch in einer weiteren Hinsicht ist mit einer sauberen Kennzeichnung bereits viel gewonnen: Die Leser wissen, dass sie nicht den Text eines Menschen lesen und dass dem Text potenzielle Fehlerquellen zugrunde lagen. Das hilft zumindest dabei, die Texte richtig – und ggf. etwas kritisch – einzuordnen.

KI -Wissen aufbauen und erfolgreich monetarisieren

Du interessierst dich für KI und die Business-Opportunities, die sich dahinter verbergen? Dann entdecke jetzt mit uns die Chancen in diesem noch jungen Markt. Reserviere jetzt deinen KOSTENLOSEN Platz im KI Live Event.

So kapitalisierst du das Marktpotenzial von KI:

  • Lerne neue, durch KI geprägte Geschäftsfelder kennen sowie den Markt und seine Potenziale
  • Erhalte Einblicke von Experten aus der Branche, die dir dabei helfen, die Potenziale und Herausforderungen von KI besser zu verstehen
  • Entdecke mit uns die neuesten Trends und Entwicklungen im Bereich der KI, die in nahezu jedem Unternehmen relevant sind
  • Bau relevantes Wissen zum Thema KI auf und lerne, wie du dieses Wissen erfolgreich monetarisierst

Positioniere dich jetzt und gehe als Gewinner aus der KI Revolution hervor!

KI Days
KI Hacks, Tools & Workflows
Für Teams und entscheider
17. & 18. 04. 2024 - online live event
KI Days
17. & 18. April 2024 - Online Live Event
KI Business Evolution
Artikel bewerten
Wie gefällt dir dieser Artikel?
4 aus 1 Bewertungen
MEHR ZUM THEMA
Themenseiten

DU willst deine KI-Skills aufs nächste Level heben?

WIR machen dich bereit für die Revolution
KÜNSTLICHE INTELLIGENZ!

Exklusive Einblicke
Newsletter für KI-Insider
Melde dich jetzt an und werde zum Gewinner der KI-Revolution

Ja, ich möchte den Newsletter. Die Einwilligung kann jederzeit im Newsletter widerrufen werden. Datenschutzerklärung.

Über den Autor

Autorenprofil: Christian Solmecke

Christian Solmecke

Rechtsanwalt Christian Solmecke hat in seiner Kölner Kanzlei WBS.LEGAL den Bereich Internetrecht/E-Commerce stetig ausgebaut. Er betreut dort zahlreiche Online-Händler, Medienschaffende und Web-2.0-Plattformen. Daneben ist RA Solmecke Gründer von anwalt2go sowie mehreren IT-Startups. Seine ersten Projekte hat er selbst programmiert. Neben seiner Kanzleitätigkeit und der Geschäftsführung der cloudbasierten Kanzleisoftware Legalvisio.de ist Christian Solmecke Autor zahlreicher Fachbücher zum Thema Online-Recht und Geschäftsführer des Deutschen Instituts für Kommunikation und Recht im Internet (DIKRI) an der Cologne Business School (http://www.dikri.de). Dort beschäftigt er sich insbesondere mit den Rechtsfragen in Sozialen Netzen. Vor seiner Tätigkeit als Anwalt arbeitete Solmecke mehrere Jahre als Journalist für den Westdeutschen Rundfunk und andere Medien.

Sitemap

schliessen
KI GOLDGRUBE
So kapitalisierst du das Billionen-Dollar-Potenzial von KI