Wie sicher ist die KI als Quellenangabe?
Darf ich eine KI als Quelle angeben?
Featured image: Alexander Limbach - stock.adobe.com
Inhaltsverzeichnis
- Ist KI eine Quelle?
- Quellenangabe als Absicherung bei rechtswidrigen Inhalten?
- KI als Quelle angeben – Schadensersatz bei Falschinformationen?
- Transparenzpflichten nach dem AI-Act
- Mehr Nutzen als Schaden
- Du willst noch mehr zum Thema rechtskonformer Umgang mit KI wissen?
Gesamtes Inhaltsverzeichnis anzeigen
Generative Künstliche Intelligenz (KI) mausert sich zu einem anerkannten Tool. Überall dort, wo routinemäßige Texte erstellt werden müssen, glänzen KI-Systeme wie ChatGPT oder Bard mit ihrer Effizienz und dem vermeintlich unerschöpflichen Fundus an komplexerem Wissen. Wenn ich nun meine Landingpage oder einen Blogartikel mit Künstlicher Intelligenz erstellen lasse, wen gebe ich eigentlich als Autor an? Und wer haftet für falsche Angaben?
Ist KI eine Quelle?
Vielen Verwendern von KI-Systemen stellt sich die Frage, wie sie nun auf ihrer Website angeben, dass sie für einen bestimmten Text Künstliche Intelligenz verwendet haben. Vor allem, wenn es um konkrete Informationen geht: Reicht „die KI“ als Quelle, oder muss ich denjenigen finden, von dem die KI die Information hat? Dafür ist zunächst wichtig zu wissen, wie genau die KI an die Informationen „herankommt“.
Wann sind grundsätzlich Quellenangaben nötig?
Grundsätzlich gilt: Außerhalb von journalistischen und wissenschaftlichen Beiträgen braucht es für einfache Informationen grundsätzlich keine Quellenangaben. Eine Quellenangabe ist rein rechtlich z. B. in Pressemitteilungen oder anderen Unternehmenspublikationen nur notwendig, wenn es sich dabei um ein wörtliches Zitat eines Dritten im Sinne der Urheberrechtsgesetzes handelt (§ 51 UrhG). Wer nur Informationen zusammenträgt, ohne die Formulierung eines Dritten zu übernehmen, muss die einzelnen Informationsquellen in einem Unternehmenskontext daher zumindest aus rechtlichen Gründen nicht belegen.
Wie kommt die KI an ihre Informationen?
Nach wissenschaftlichen oder journalistischen Standards wäre KI allerdings keine taugliche Quelle. Das hängt mit ihrer Funktionsweise zusammen. KI-Systeme wie OpenAIs ChatGPT oder Googles Bard arbeiten prozedural-transformativ. Durch sog. „Deep Learning“ werden komplexe Datensätze erstellt, die Gesetzmäßigkeiten und Muster statistisch miteinander verbinden. Zum Training dieses sog. neuronalen Netzes werden enorme Ansammlungen von Text-Daten wie Bücher, Artikel und Websites verwendet. Die Eingabe eines Nutzers wird dann als Ganzes mit dem neuronalen Netz abgeglichen und anhand dessen wird stückweise (prozedural) eine plausible Antwort generiert.
Das Wissen liegt also zum Zeitpunkt der Eingabe nicht mehr in seiner eigentlichen Form vor. Stark vereinfacht gesagt „rät“ das KI-System eine statistisch wahrscheinliche Antwort auf die konkrete Eingabe anhand des neuronalen Netzes. Aus diesem Grund warnen OpenAI und Google auch vor inhaltlichen Fehlern („ChatGPT can make mistakes. Consider checking important information.“ 22.02.2024). Häufig entstehen inhaltlich richtige Ergebnisse, eine Garantie gibt es aber nicht. Eine Quellenangabe würde somit ohnehin kaum einem richtigen Zweck dienen.
KI als Quelle für allgemeine Informationen angeben
Keine Probleme liefern allgemeinere, textgestalterische Anfragen. Der Prompt „Schreibe mir einen Text für eine Unternehmens-Landingpage“ generiert bei ChatGPT 3.5 in unserem Fall zum Beispiel Folgendes:
„Herzlich willkommen bei [Unternehmensname], Ihrem Partner für innovative Lösungen und erstklassigen Service. Wir sind ein führendes Unternehmen in unserem Bereich und stolz darauf, unseren Kunden qualitativ hochwertige Produkte und Dienstleistungen anzubieten.
Unser Engagement für Exzellenz spiegelt sich in allem wider, was wir tun. Von der Produktentwicklung bis hin zur Kundenzufriedenheit steht bei uns stets die höchste Qualität im Mittelpunkt. Wir streben danach, die Erwartungen unserer Kunden zu übertreffen und langfristige Beziehungen aufzubauen, die auf Vertrauen und Zuverlässigkeit basieren.„
(gekürzt nach: OpenAI’s ChatGPT AI language model v3.5, persönliche Kommunikation, 22.02.2024)
Solche generischen Textbausteine haben derartig wenig Informationsgehalt, dass die Nutzung weitestgehend unverfänglich sein wird. Jedenfalls urheberrechtlich können diese auch ohne Quellenangaben verwendet werden. Festzuhalten bleibt: Unternehmerinnen und Unternehmer sind also nicht grundsätzlich urheberrechtlich verpflichtet, KI-Content auch als solchen zu kennzeichnen.
ki handbuch
durch automatisierung
ki handbuch
Quellenangabe als Absicherung bei rechtswidrigen Inhalten?
Es gibt allerdings einen Fall, der rechtliche Probleme aufwirft: Durch die Funktionsweise von KI ist es theoretisch denkbar, dass Textbausteine generiert werden, die urheberrechtlich geschützten Werken zufälligerweise entsprechen, oder diesen stark ähneln. Da der KI-Verwender die Ausgangswerke aber nie gesehen hat (etwa den Blogbeitrag, dem der Output zufällig entspricht), stellt sich die Frage, ob dann in der Veröffentlichung des KI-generierten Inhalts (durch einen Menschen) eine Urheberrechtsverletzung liegt.
Solche Fälle wurden noch nicht entschieden. Es gibt in der Rechtsprechung allerdings die Doppelschöpfung und die unbewusste Entlehnung. Bei der Doppelschöpfung kreieren zwei Urheber zufällig unabhängig voneinander ein ähnliches Werk. Dann verletzt das jüngere nicht die Rechte des älteren, denn keiner hat vom anderen plagiiert. Anders liegt es bei der „unbewussten Entlehnung“. Hier meint ein Künstler nur, ein neues Werk geschaffen zu haben, dieses basiert jedoch auf seiner unbewussten Erinnerung an ein vorher bestehendes. Hier hat der Verwender zwar nicht vorsätzlich plagiiert. Allerdings ist es für ein Plagiat nicht von Bedeutung, ob er sich der Verletzung bewusst war. Das ist nur relevant für die Folgeansprüche. So dürfte dann auch der Fall bei der Übernahme fremder Texte durch KI liegen. Was aber sind die Folgen?
Es entsteht in jedem Fall ein Beseitigungsanspruch: Sobald der Verwender – etwa durch eine Abmahnung – Kenntnis erlangt, muss er den betreffenden Textbaustein entfernen. Auch eine KI-„Quellenangabe“ entlastet da nicht. Für einen weitergehenden Unterlassungsanspruch müsste für die Verletzung eine Wiederholungsgefahr bestehen (§ 97 Abs. 1 UrhG). Diese entfällt grundsätzlich, wenn man eine strafbewehrte Unterlassungserklärung abgibt. Allerdings könnte man – das wurde aber noch nicht entschieden – auch ohne eine solche annehmen, dass sie nicht besteht, wenn durch eine vorherige Kennzeichnung klar war, dass der Text KI-generiert war. Damit dürfte die Wahrscheinlichkeit, noch einmal von genau diesem Urheber per KI zu plagiieren, sehr gering sein.
KI als Quelle angeben – Schadensersatz bei Falschinformationen?
Was aber ist mit dem Schadensersatzanspruch? Hier müsste dem Ersteller nachgewiesen werden, dass er die Urheberrechtsverletzung zumindest fahrlässig begangen hat (§ 97 Abs. 1 UrhG). Dazu gibt es im Fall von KI noch keine Rechtsprechung. Jedenfalls im Fall der unbewussten Entlehnung wurde auch schon einfache Fahrlässigkeit angenommen. Nun erscheint es mir allerdings auch recht weit, durch die bloße Nutzung von KI schon einen Fahrlässigkeitsvorwurf im Hinblick auf das Urheberrecht zu machen. Dann müsste man jeden Nutzer von KI verpflichten, zuvor eine Plagiatssoftware über den Text laufen zu lassen. Wie ein Gericht das sehen würde, ist derzeit nicht abzusehen. Ein vorheriger KI-Hinweis kann hier möglicherweise jedenfalls in der Praxis helfen, einem Abmahnenden klarzumachen, dass es sich hierbei wahrscheinlich nicht um eine schuldhafte Verletzung von Rechten ging. Eine Garantie, nicht doch auf Schadensersatz verklagt zu werden, ist das aber nicht.
Abseits vom Urheberrecht ist auch denkbar, dass generierte Inhalte etwa Falschaussagen über Personen oder Unternehmen enthalten und dadurch deren Rechte verletzen. Wenn der Text etwa das Allgemeine Persönlichkeitsrecht einer Person verletzt, haftet dafür normalerweise auf Beseitigung, Unterlassung oder Schadensersatz, der ihn verfasst hat bzw. der publizistisch dafür verantwortlich ist. Hier würde ich – anders als beim Urheberrecht – schon eher einen Fahrlässigkeitsvorwurf sehen, wenn man einen KI-Text, der potenziell die Rechte Dritter verletzt, ungeprüft online stellt. Der bloße Hinweis auf die KI als Quelle kann da auch kaum helfen. Möglicherweise könnte aber der insoweit geringere Schuldvorwurf einen eventuellen Anspruch auf immateriellen Schadensersatz mindern.
Transparenzpflichten nach dem AI-Act
Der kommende europäische AI-Act, der zuletzt in Trilogverhandlungen zwischen den Unionsorganen stand, könnte an der Lage etwas ändern. Das KI-Gesetz sieht breite Transparenzpflichten für Anbieter („provider“) und Anwender („deployer“) vor. So müssen Anbieter von KI-Systemen laut dem aktuellen Entwurf dafür sorgen, dass der synthetisch generierte Inhalt auch maschinell als solcher erkennbar ist. Und auch Anwender trifft – ausdrücklich bisher allerdings nur bei Deepfakes – die Pflicht, das KI-generierte Werk als solches zu kennzeichnen. Inwiefern davon allerdings einzelne Texte und Textbausteine betroffen sein werden, ist noch nicht abzusehen. Das hängt insbesondere davon ab, für welche Methoden sich Anbieter wie OpenAI entscheiden, sollte das Gesetz wie geplant im Mai beschlossen werden und in Kraft treten.
Mehr Nutzen als Schaden
Bis dahin gilt: Unternehmerinnen und Unternehmer trifft keine grundsätzliche Pflicht, KI-generierte Informationen auf ihrer Website zu belegen. Landingpage-Textbausteine oder Blog-Artikel können nach aktueller Rechtslage auch ohne Quellenangaben veröffentlicht werden.
Das macht KI allerdings unter keinen Umständen zu einer sauberen Informationsquelle. Wer informationsreiche Texte nicht durch eine Plagiatssoftware überprüft und Inhalte gegencheckt, kann Rechte Dritter verletzen. In diesen Fällen kann ein KI-Hinweis ein wenig abhelfen, schafft aber keine absolute Rechtssicherheit.
Wer sich bestmöglich absichern will, kann sich hier wenigstens an wissenschaftliche Zitiergrundsätze halten. Die gängigen Zitiersysteme haben hierfür noch keine allgemeinen Richtlinien. Es wird allerdings genügen, das Resultat entweder als persönliche Kommunikation zu zitieren:
„OpenAI’s ChatGPT Sprachmodell, Antwort auf eine Frage der Autorin, [Datum].“ (entspr. Deutsche Zitierweise) oder
„OpenAI’s ChatGPT AI language model, persönliche Kommunikation, 14.02.2023“ (entspr. APA)
Auch in einer weiteren Hinsicht ist mit einer sauberen Kennzeichnung bereits viel gewonnen: Die Leser wissen, dass sie nicht den Text eines Menschen lesen und dass dem Text potenzielle Fehlerquellen zugrunde lagen. Das hilft zumindest dabei, die Texte richtig – und ggf. etwas kritisch – einzuordnen
Du willst noch mehr zum Thema rechtskonformer Umgang mit KI wissen?
Dann darfst du unser KI Legal Event nicht verpassen! Am 15. Oktober erhältst du von Experten und Anwälten aus den Bereichen Wirtschafts-, Urheber-, IT-, Markenrecht und Datenschutz intensive Einblicke in dieses spannende Thema! Das wird dich erwarten:
- KI-Rechtswissen aus erster Hand
- Von uns getestete und bewährte Tool-Empfehlungen
- Konkrete Anwendungsbeispiele
- KI Legal Guideline
- Entdecke die Möglichkeiten am Wachstumsmarkt KI
- 13. & 14. August 2024
- live & kostenlos im Online Stream
live I online I kostenlos
durch automatisierung
ChatGPT im Test: Von Prompt zum Erfolg
Erfahre mehr zu dem KI-Tool ChatGPT und dessen Nutzungsweise. Wie und warum hat das Tool den Hype ausgelöst? Erfahre es hier.
Bloggen mit KI: So winkt ein Jahresgehalt von 115.000 Dollar
Innerhalb von nur einem Jahr hat Samantha North ihren Blog auf Einnahmen von über 115.000 Dollar gepushed. Wie sie das geschafft hat, erfährst du hier!
AI Power im Test: Die umfangreiche KI für WordPress
AI Power im Test. Das KI-Tool bietet dir eine Schnittstelle von ChatGPT zu WordPress. So erstellst du die Texte direkt in deinem CMS!
Künstliche Intelligenz im Marketing: So nutzt du sie erfolgreich
ChatGPT, Google Bard und Co. sind im Trend. Wie lässt sich Künstliche Intelligenz im Marketing erfolgreich einsetzen? Das erfährst du hier!
Writesonic im Test: Effiziente Texterstellung oder völlig überladen?
Writesonic ist neben ChatGPT eine der bekanntesten KIs für Texterstellung. Wir haben das Tool umfassend getestet!
Sora: Neues Tool von OpenAI vorgestellt
OpenAI hat sein neues Tool Sora vorgestellt. Die KI kann kurze realistische Videos erstellen. Die Ergebnisse sind beeindruckend!
DU willst deine KI-Skills aufs nächste Level heben?
WIR machen dich bereit für die Revolution
KÜNSTLICHE INTELLIGENZ!
- Praxisbeispiele – sofort anwendbar für dein Business
- Aktuelle KI-Tools im Check
- Expertentipps für die neusten KI-Technologien
- Case Studies – von E-Mail-Marketing bis Datenanalyse
Ja, ich möchte den Newsletter. Die Einwilligung kann jederzeit im Newsletter widerrufen werden. Datenschutzerklärung.
Über den Autor
Christian Solmecke
Rechtsanwalt Christian Solmecke hat in seiner Kölner Kanzlei WBS.LEGAL den Bereich Internetrecht/E-Commerce stetig ausgebaut. Er betreut dort zahlreiche Online-Händler, Medienschaffende und Web-2.0-Plattformen. Daneben ist RA Solmecke Gründer von anwalt2go sowie mehreren IT-Startups. Seine ersten Projekte hat er selbst programmiert. Neben seiner Kanzleitätigkeit und der Geschäftsführung der cloudbasierten Kanzleisoftware Legalvisio.de ist Christian Solmecke Autor zahlreicher Fachbücher zum Thema Online-Recht und Geschäftsführer des Deutschen Instituts für Kommunikation und Recht im Internet (DIKRI) an der Cologne Business School (http://www.dikri.de). Dort beschäftigt er sich insbesondere mit den Rechtsfragen in Sozialen Netzen. Vor seiner Tätigkeit als Anwalt arbeitete Solmecke mehrere Jahre als Journalist für den Westdeutschen Rundfunk und andere Medien.