- Home
- News and Events
- Kommentare & Analysen
- Von Pixeln zu Problemen: KI-Bildgeneratoren und Ma...
Von Pixeln zu Problemen: KI-Bildgeneratoren und Markenrechtsrisiken
Am 9. Juni 2025 eröffnete der High Court des Vereinigten Königreichs ein mit Spannung erwartetes Gerichtsverfahren an der Schnittstelle zwischen Künstlicher Intelligenz (KI) und Immaterialgüterrecht. In dem Verfahren, das Getty Images gegen Stability AI angestrengt hat, wird eine der ersten inhaltlichen Entscheidungen darüber erwartet, ob urheberrechtlich geschütztes Material rechtmäßig in KI-Trainingsdatensätzen verwendet werden darf. Das Urteil dieses Prozesses könnte einen wichtigen Präzedenzfall schaffen – mit erheblichen Auswirkungen darauf, wie KI-Modelle entwickelt werden und wie Rechteinhaber ihre Werke schützen können.
Vor diesem Hintergrund ist es besonders aktuell, die urheberrechtlichen Implikationen von KI-Bildgeneratoren genauer zu betrachten. Doch geht es dabei nur um Urheberrecht und KI? Nicht ganz. In diesem Zusammenhang lohnt sich auch ein Blick darauf, wie KI-generierte Inhalte mit Rechten des geistigen Eigentums wie Markenrechten interagieren – und dabei neue Fragen zu Markenidentität, Verwechslungsgefahr und Rechtsdurchsetzung in einer zunehmend automatisierten Kreativlandschaft aufwerfen.
Was ist eine Marke?
Marken begegnen uns täglich, oft ohne dass wir es bewusst wahrnehmen. Technisch gesehen ist eine Marke ein rechtlich geschütztes „Zeichen“, das einem Unternehmen, einer juristischen Person oder einer Einzelperson gehört. Sie kann viele Formen annehmen – etwa Wörter, Logos, Farben, Formen oder sogar Klänge. Eine Marke ermöglicht es dem Verbraucher, Produkte und/oder Dienstleistungen einem bestimmten Anbieter zuzuordnen. Marken sind für Unternehmen essenziell, da sie Identität und Ruf ihrer Produkte oder Dienstleistungen schützen.
Was ist generative KI?
Auch wenn generative KI in den letzten Jahren große Aufmerksamkeit erlangt hat, gibt es klassische KI schon seit Jahrzehnten. Klassische KI basiert auf vordefinierten Regeln und Algorithmen, um bestimmte Aufgaben zu erfüllen (z. B. Siri). Generative KI hingegen kann – vereinfacht gesagt – Inhalte wie Bilder oder Videos auf Basis von Eingaben selbstständig erzeugen. Sie nutzt dabei Trainingsdaten, die in der Regel durch sogenannte „Crawler“ aus dem Internet gesammelt werden. Im Gegensatz zur klassischen KI ist generative KI in der Lage, neue Muster zu erkennen und damit neue Inhalte zu generieren.
Wie überschneiden sich KI-Bildgeneratoren und Markenrechte?
Obwohl es sich um zwei sehr unterschiedliche Themen handelt, überschneiden sich generative KI und Markenrecht in vielerlei Hinsicht – mit erheblichen juristischen Herausforderungen.
Wenn generative KI auf Aufforderung hin Bilder erzeugt, kann es passieren, dass dabei geschützte Marken ohne Zustimmung der Inhaber verwendet werden. Das zeigt sich beispielsweise, wenn markenrechtlich geschützte Zeichen in KI-generierten Bildern auftauchen. Problematisch wird es insbesondere, wenn diese Marken in einem Kontext erscheinen, der nicht der tatsächlichen Markenwahrnehmung entspricht – z. B. wenn es aussieht, als würden konkurrierende Unternehmen zusammenarbeiten, obwohl das nicht der Fall ist. Dies kann zu folgenden Problemen führen:
- Verwechslungsgefahr: Wenn eine Marke so verwendet wird, dass Verbraucher über die Herkunft von Produkten oder Dienstleistungen irregeführt werden.
- Verwässerung: Wenn eine Marke ohne Genehmigung genutzt wird, wodurch ihre Unterscheidungskraft geschwächt oder ihr Ruf geschädigt wird – auch ohne direkte Verwechslungsgefahr.
Beispiele:

- Prompt: „Starbucks und Costa“ – generiertes Bild durch DEEPAI

- Prompt: „Erstelle ein Bild eines Mini Cooper mit dem Audi-Logo“ – generiert durch Google Gemini
In der EU erlaubt Artikel 4 der DSM-Richtlinie das Text- und Data-Mining (TDM) zu kommerziellen Zwecken, solange der Rechteinhaber dem nicht ausdrücklich widersprochen hat. Im Vereinigten Königreich ist TDM derzeit nur zu nicht-kommerziellen Forschungszwecken erlaubt, was kommerzielle Trainingsnutzung unklar erscheinen lässt. Diese Ausnahmen beziehen sich jedoch nicht auf das Endprodukt der KI – dieses kann weiterhin Urheberrechte, Marken- oder Designrechte verletzen.
Wann kann durch KI-generierte Inhalte eine Markenrechtsverletzung entstehen?
Für Designer, Unternehmer und Marketingteams, die KI für die Erstellung von Markeninhalten nutzen, stellt sich die Frage: Verletzt das generierte Ergebnis möglicherweise bestehende Markenrechte?
Die bloße Nennung einer Marke im Prompt oder ein markenähnliches Bild durch eine KI stellt noch keine Markenrechtsverletzung dar. Problematisch wird es, wenn das generierte Logo oder Zeichen identisch oder verwechslungsfähig mit einer bestehenden Marke ist – insbesondere, wenn es kommerziell verwendet wird, etwa auf Verpackungen, Websites oder Werbematerialien. Wenn dadurch der Eindruck entsteht, es bestehe eine Verbindung zum Original, kann dies rechtlich bedenklich sein – selbst wenn die Ähnlichkeit unbeabsichtigt war.
Wichtig: Nur weil ein Logo durch eine KI generiert wurde, bedeutet das nicht automatisch, dass es unbedenklich genutzt werden darf. Prompts wie „Starbucks-ähnliches Logo“ oder „Costa-Farbpalette“ können leicht Elemente echter Marken kombinieren – und rechtliche Probleme auslösen.
Neben dem Markenrecht kann in Ländern wie dem Vereinigten Königreich auch ein „Passing-off“-Tatbestand vorliegen. Diese Form des unlauteren Wettbewerbs schützt auch nicht eingetragene Markenrechte – ein zusätzliches Risiko für KI-Nutzer und Entwickler.
Das Hauptproblem: Die meisten KI-Plattformen warnen Nutzer nicht, wenn generierte Inhalte Marken ähneln. So können auch zufällige Ähnlichkeiten rechtliche Konsequenzen nach sich ziehen – insbesondere in verbrauchernahen Branchen wie Kaffee, Mode oder Elektronik, in denen Markenidentität entscheidend ist:
Wer haftet für KI-generierte Inhalte?
Nach aktuellem EU- und UK-Recht liegt die rechtliche Verantwortung in der Regel beim Nutzer oder beim kommerziellen Betreiber – nicht bei der KI selbst. Wenn jemand ein von einer KI erzeugtes Logo kommerziell nutzt, das einer eingetragenen Marke ähnelt, kann er haftbar gemacht werden – auch ohne Absicht oder Kenntnis der Originalmarke.
Viele KI-Plattformen (z. B. Midjourney, DALL·E) verlagern die Verantwortung vertraglich auf den Nutzer. Ihre Nutzungsbedingungen enthalten oft Haftungsausschlüsse für rechtswidrige oder problematische Ausgaben: „Wenn du etwas promptest, trägst du die Verantwortung.“
Das bedeutet jedoch nicht, dass Anbieter von KI-Modellen völlig aus der Verantwortung sind. Nach EU- und UK-Rechtsprechung kann auch der Anbieter haftbar sein, insbesondere wenn er Rechtsverletzungen ermöglicht oder nicht verhindert – entweder als mittelbarer oder sogar als unmittelbarer Verletzer.
Der EU AI Act
Der kommende EU AI Act verbietet nicht grundsätzlich, KI mit Datensätzen zu trainieren, die markenrechtlich geschützte Zeichen enthalten. Er verpflichtet jedoch Entwickler, Transparenz darüber zu schaffen, welche Inhalte zum Training verwendet werden. Große KI-Anbieter müssen künftig nachweisen, dass sie das Urheberrecht einhalten, insbesondere bei Werken, deren Rechteinhaber einen „Opt-out“ erklärt haben.
Zwar wird damit nicht direkt das Problem markenähnlicher Ausgaben gelöst, jedoch wird es einfacher nachzuvollziehen, ob beim Training auf geschützte Inhalte zugegriffen wurde – was insgesamt zu einem zurückhaltenderen Umgang mit urheberrechtlich geschütztem Material führen dürfte.
Fazit
Viele der oben dargestellten Fragen stehen auch im Zentrum des Verfahrens Getty Images gegen Stability AI, wie zu Beginn erwähnt. Der Fall wirft grundlegende Fragen darüber auf, wie weit KI-Entwickler beim Einsatz geschützter Inhalte zu Trainingszwecken gehen dürfen und ob dies Urheber-, Datenbank- oder Markenrechte verletzt – etwa wenn Logos oder Markenzeichen in Trainingsdaten oder Ausgaben auftauchen.
Marken- und „Passing-off“-Ansprüche spielen eine zentrale Rolle. Getty behauptet, dass durch KI erzeugte Bilder sein Wasserzeichen replizieren, Nutzer täuschen und dem Markenimage schaden. Der „Passing-off“-Vorwurf lautet, es werde ein falscher Eindruck über die Herkunft der Inhalte erweckt und damit das Vertrauen in die Marke Getty beschädigt. Stability AI weist die Vorwürfe zurück und betont, dass etwaige Ausgaben nicht-kommerziell und nutzergeneriert seien. Die Entscheidung des Gerichts dürfte maßgeblich klären, wer für KI-generierte Inhalte haftet – und wie das Markenrecht auf generative KI anzuwenden ist. Bis dahin zeigt der Fall vor allem eins: Die rechtliche Unsicherheit für Entwickler und Nutzer ist hoch – klare Regeln sind dringend notwendig, besonders in kommerziellen Kontexten, in denen die Integrität von Marken auf dem Spiel steht.
Weitere News & Events