Generative KI im Marketing – Neue Transparenzpflichten für Unternehmen
Skip to main content
Insight

Generative KI im Marketing – Neue Transparenzpflichten für Unternehmen

Double exposure image depicting a woman's profile on the right side merged with a digital blue world map on the left side, overlaid with lines and dots representing global connectivity and technology. The background transitions from dark blue to white.

Locations

Germany

Die rasante Entwicklung künstlicher Intelligenz (KI) hat längst Einzug in die Werbeindustrie gehalten. Ob kreative Visualisierungen, personalisierte Inhalte oder das Erschaffen neuer Bildwelten – KI hat das Potenzial, die Werbung grundlegend zu verändern. Doch damit gehen nicht nur Chancen einher. Welche rechtlichen Stolpersteine werbende Unternehmen beim Einsatz von Generativer KI beachten müssen, klären wir im Beitrag.
 

Wie nutzt die Marketingwelt Generative KI?

Schon heute wird KI im Marketing häufig zur Erstellung von visuellen Inhalten genutzt werden. Dabei kommen unterschiedliche Technologien wie Generative Adversarial Networks (GANs) oder Deep Learning-Modelle etwa für Verpackungsdesigns oder Werbespots zum Einsatz.

So nutzte Heinz Ketchup für eine Werbeaktion die Generative KI Dall-E, um Ketchup-Flaschen grafisch darzustellen. Mit Prompts wie „Ketchup Renaissance“, „Ketchup Street Art“ oder „Ketchup Outer Space“, entstanden Resultate, die immer stark an die ikonische Heinz-Flasche erinnerten. Das schnitt Heinz in einem Video gepaart mit dem Slogan „Even A.I. knows that Ketchup is Heinz“ zusammen (zum Video: https://www.youtube.com/watch?v=LFmpVy6eGXs).

Auch der Süßwarenkonzern Ferrero verwendete generative KI, um seine Verpackungsdesigns zu optimieren. Ebenfalls mithilfe von Dall-E entstanden bunte Nutella-Gläser, die in einer limitierten Auflage verkauft wurden.

Bild: Ferrero

Häufig wird KI aber auch versteckter eingesetzt. So warb der Modehersteller Mango jüngst mit täuschend echt aussehenden KI-Models:

Bild: Mango

Erstellt wurden die Bilder mit eigens entwickelten Machine Learning Plattformen, die Teil einer größeren Technologiestrategie des Modeherstellers sind.

Unscheinbar kommt KI auch beim Marketing-Trend Fake-Out of Home Werbung daher, über den wir hier bereits berichtet hatten.
 

Muss KI-generierter Content in der Werbung gekennzeichnet werden?

So neu der Einsatz von KI im Marketing ist, so zahlreich sind die juristischen Fragestellungen. Zentrales Thema ist die Transparenz gegenüber Verbrauchern: Müssen KI-generierte Inhalte als solche gekennzeichnet werden? Relevant hierfür sind die neue KI-Verordnung (auch AI Act genannt) sowie Regelungen im Digital Services Act (DSA) und im Wettbewerbsrecht.

a) AI Act

Nach Art. 50 Abs. 2 KI-VO müssen Anbieter von generativen KI-Systemen sicherstellen, dass KI-generierte Inhalte „in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.“ Das erfasst insbesondere Generative KI Systeme (z.B. Dall-E), wie sie im Marketing genutzt werden. Als Anbieter gilt, wer ein KI-System entwickelt bzw. entwickeln lässt und selbst in Verkehr bringt. Die Verordnung gibt keine genauen technischen Spezifikationen vor, verweist jedoch in Erwägungsgrund 133 KI-VO auf Wasserzeichen, Metadatenidentifizierungen und kryptographische Methoden als mögliche Umsetzungsmechanismen. Es ist also zu erwarten, dass solche Programme künftig entsprechende Hinweise mitgenerieren.

Für sog. Deepfakes sieht Art. 50 Abs. 4 KI-VO eine gesonderte Offenlegungspflicht vor: Betreiber generativer KI-Systeme müssen „klar und deutlich offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden." – notwendig ist also eine Kennzeichnung der Inhalte als "KI-generiert". Betreiber sind dabei alle, die ein KI-System in eigener Verantwortung nutzen – also auch Marketingabteilungen, die damit Werbung generieren. Knackpunkt ist allerdings die Frage, ob und wann ein Deepfake vorliegt. Darunter versteht der AI Act "einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde" (Art. 3 Nr. 60 KI-VO). Versteht man den Begriff des Deepfakes weit, so würden darunter alle Inhalte fallen, die irgendwie real erscheinen. Versteht man ihn hingegen enger, läge ein Deepfake nur vor, wenn real existierende Personen, Orte oder Gegenstände gedoubelt würden. Die Unterabteilung Europa des Bundestags hat zur Frage der Anwendbarkeit auf KI in der Werbung jüngst eine instruktive Stellungnahme veröffentlicht – und neigt erfreulicherweise eher dem engen Begriffsverständnis zu. Das würde für die Praxis bedeuten, dass Werbetreibende KI-Inhalte nur dann kennzeichnen müssten, wenn damit real existierende Personen, Gegenstände oder Orte nachgebildet werden. Im Mango-Fall mit einem fiktiven Model wäre damit eine Kennzeichnung wohl entbehrlich gewesen (anders hingegen, wenn das Model beispielsweise der real existierenden Heidi Klum nachempfunden gewesen wäre). In den Fällen der Fake-Out-Home-Werbung wäre hingegen eine Kennzeichnung erforderlich gewesen.

Diese Pflichten der KI-VO gelten erst ab 2. August 2026. Es bleibt zu hoffen, dass die EU noch Leitlinien erlässt, die insbesondere zur Frage der Deepfakes Aufschluss geben.

b) DSA

Der seit Februar 2024 geltende DSA statuiert Transparenzpflichten für sehr große Online-Plattformen und Suchmaschinen. Gem. Art. 35 Abs. 1 Satz 2 Buchst. k DSA müssen Deepfakes im engeren Sinne (siehe oben) gekennzeichnet werden. Es gibt also gerade keine allgemeine Pflicht zur Kennzeichnung aller KI-Inhalte. Zudem bleibt es den Plattformbetreibern weitgehend selbst überlassen, wie sie die Transparenz sicherstellen.

c) Wettbewerbsrecht

Im Rahmen des Gesetzes gegen den unlauteren Wettbewerb (UWG) müssen Werbetreibende sicherstellen, dass ihre Werbemaßnahmen Verbraucher nicht irreführen. Eine solche Irreführung kann auch im Unterlassen wesentlicher Informationen bestehen. Ein problematisches Szenario im Zusammenhang mit KI-generierter Werbung ist beispielsweise die Verwendung einer KI-generierten Influencerin, die ein Produkt bewirbt. Falls Verbraucher nicht erkennen können, dass es sich um eine künstlich erzeugte Person handelt, könnte das als unlauter im Sinne des UWG gelten. Dem könnte man nur durch eine entsprechende Kennzeichnung begegnen.
 

Wem gehört ein KI-generiertes Bild und wer haftet bei Urheberrechtsverstößen?

Grundsätzlich schützt das Urheberrecht nach § 2 UrhG nur Werke, die von Menschen geschaffen wurden, wodurch KI-generierte Werke in der Regel keinen direkten Urheberrechtsschutz genießen. Ein KI-Output kann jedoch dann urheberrechtlich geschützt sein, wenn der Mensch den kreativen Schöpfungsprozess maßgeblich steuert, indem er präzise Vorgaben macht, die das Ergebnis stark beeinflussen. Dies bedeutet, dass die KI lediglich als Hilfsmittel dient und der kreative Input des Nutzers entscheidend ist für die Schutzfähigkeit des Werks. Das könnte beispielsweise der Fall sein, wenn die KI mit sehr vielen und sehr gezielten Prompts angewiesen wird. Wann genau der Urheberrechtsschutz greift, ist aktuell nicht geklärt und Gegenstand intensiver rechtlicher Diskussionen. Gleiches gilt für die Frage, ob die ergänzenden Leistungsschutzrechte (z.B. für Laufbilder oder Datenbanken) eine Alternative zum urheberrechtlichen Schutz sein können.

Probleme entstehen zudem, wenn KI mit bestehenden urheberrechtlich geschützten Werken trainiert wird. In diesem Fall besteht die Gefahr, dass der Output Teile geschützter Werke übernimmt, was zu Urheberrechtsverletzungen führen kann. Auch wenn der Nutzer keine direkten urheberrechtlich geschützten Werke verwendet, kann der KI-Output dennoch ähnliche oder erkennbare Merkmale aufweisen, die eine Verletzung des Urheberrechts nach § 16 UrhG (Vervielfältigungsrecht) oder § 23 UrhG (Bearbeitungsrecht) zur Folge haben – mit entsprechenden haftungsrechtlichen Konsequenzen für das werbende Unternehmen. Gegensteuern lässt sich hier mit entsprechenden technischen Maßnahmen, etwa Instance Attribution oder Differentially Private Training.
 

Empfehlungen für Unternehmen

Die Nutzung von KI-generierten Bildern eröffnet Unternehmen beeindruckende Möglichkeiten zur kreativen Gestaltung von Werbekampagnen. Allerdings erfordert der Einsatz dieser Technologien eine sorgfältige rechtliche Abwägung. Daher sollten Werbetreibende, die KI-generierte Bilder einsetzen, Folgendes berücksichtigen:

  • Transparenz: Wenn KI-generierte Inhalte zum Einsatz kommen, sollten diese deutlich als solche gekennzeichnet werden, um Irreführung und Täuschung zu vermeiden.
  • Überprüfung der Trainingsdaten: KI-Systeme dürfen nicht mit urheberrechtlich geschützten Daten ohne Lizenz trainiert werden. Unternehmen sollten die verwendeten Trainingsdaten überprüfen und entsprechende Vereinbarungen mit KI-Anbietern treffen.
  • Rechteklärung und Lizenzierung: Unternehmen sollten sicherstellen, dass für KI-generierte Inhalte alle erforderlichen Lizenzen vorliegen – sowohl für die Trainingsdaten als auch für den Output der KI, um urheberrechtliche Konflikte zu vermeiden.

 

Über die Autoren:

Christina Kufer ist Senior Associate im Fieldfisher Office in Berlin und berät im Bereich Intellectual Property. Ihre Beratung erstreckt sich insbesondere auf die Bereiche Wettbewerbs-, Marken-, Urheber- und Designrecht sowie auf Fragestellungen zu eCommerce- und Verbraucherschutzthemen.

Mitarbeit an diesem Insight: Darlien Stolte, Wissenschaftliche Mitarbeiterin