Erkenne sofort, was auf Twitter, LinkedIn, Substack und anderen Plattformen von Menschen und was von KI stammt. Hol dir unsere neue Chrome-Erweiterung.

Bildung

KI-Wasserzeichen: Warum die großen Tech-Konzerne auf KI-Herkunftsnachweise setzen – und dabei den Kürzeren ziehen

11. Mai 2026
KI-Wasserzeichen: Warum die großen Tech-Konzerne auf KI-Herkunftsnachweise setzen – und dabei den Kürzeren ziehen

Wo immer sich Internetnutzer hinwenden, werden sie mit KI-generierten Texten, Videos und Bildern konfrontiert, von denen viele nicht zu erkennen sind. Die Unversehrtheit und das Vertrauen in Online-Räume bröckeln unter der Last der KI-Inhalte. Bidens Verordnung zur KI-Sicherheit und der KI-Gesetzentwurf der Europäischen Union sprachen sich für eine ordnungsgemäße Kennzeichnung von KI-Ergebnissen aus, auch bekannt als „Wasserzeichen“, doch diese Vorschriften wurden 2025 wieder aufgehoben. Obwohl es keine nationale oder internationale Strategie gibt, entwickeln und implementieren viele KI-Unternehmen weiterhin „Wasserzeichen“-Signale in ihren Inhalten. Dies ist zwar ein Schritt in die richtige Richtung, um das Vertrauen der Öffentlichkeit zurückzugewinnen und die Verbraucher zu schützen, doch ist das Wasserzeichen eine fehlerhafte Methode, die leicht umgangen werden kann.

Im Folgenden werden wir untersuchen, wie Wasserzeichen funktionieren, warum sie versagen und warum gute KI-Erkennungsmethoden auf einer bestimmten Art der Mustererkennung beruhen müssen.

Ein KI-Wasserzeichen wird erkannt, ist aber nicht sichtbar

Für Menschen sind KI-Wasserzeichen unsichtbar. Im Gegensatz zu herkömmlichen Wasserzeichen, die den Namen oder das Logo eines Unternehmens zeigen, werden KI-Wasserzeichen auf nicht wahrnehmbare Weise in die Text-, Bild- und Videoausgabe eines KI-Modells eingebettet.

Google nutzt SynthID, eine Technologie, die subtile Abweichungen in die von Gemini generierten Ergebnisse einbaut, die von Googles eigener Technologie erkannt werden können. Bei Text verändert SynthID die Vorhersagbarkeitswerte bestimmter Wörter anhand einer pseudozufälligen Funktion, wodurch Gemini dazu veranlasst wird, bestimmte Wörter bevorzugt zu verwenden. Wenn der Text dann wieder in das Modell eingespeist wird, kann dieses anhand einer Wortfrequenzanalyse sein eigenes Werk erkennen.

Vollständig durch KI erzeugte Inhalte können nach US-amerikanischem Recht nicht urheberrechtlich geschützt werden. Daher liegt es im Interesse der KI-Unternehmen, eine Methode zu entwickeln, mit der sich die Herkunft der von ihren Modellen erzeugten Inhalte feststellen lässt. Auf diese Weise gibt es, sobald der KI-generierte Text, das Bild oder das Video im Internet verbreitet wird, eine Signatur, anhand derer sich seine Herkunft feststellen lässt.

Der Anspruch auf die von ihren Modellen erzeugten Inhalte ist nicht der einzige Grund, warum die großen Tech-Konzerne so sehr an der Herkunftsnachweisbarkeit interessiert sind. Während Internetnutzer die endlose Flut an KI-Müll bestaunen, die ihnen täglich vor die Haustür gekippt wird, fürchten die großen KI-Entwickler die rechtlichen, rufschädigenden und sicherheitsrelevanten Risiken, die ihnen drohen könnten. Böswillige Akteure nutzen KI-Tools, um Deepfakes zu erstellen oder Falschinformationen zu verbreiten, was die globale Sicherheit gefährdet. Um einem möglichen harten Durchgreifen in Form strenger staatlicher Vorschriften zuvorzukommen, wollen die großen Tech-Unternehmen die Initiative ergreifen und Tools zur Selbstregulierung entwickeln. Wenn ihre Modelle Inhalte genauso leicht entschlüsseln können, wie sie sie generieren, warum sollte dann eine staatliche Stelle ihre Entwicklung überwachen müssen?

Schlechte Nachrichten: Wasserzeichen sind nicht narrensicher

Wenn sich alle Menschen auf der Welt versprechen würden, KI-Inhalte niemals zu verändern, würde das Einfügen von Wasserzeichen vielleicht funktionieren. Doch in der Realität können böswillige Akteure KI-generierte Inhalte leicht so verändern, dass ihre Herkunft verschleiert wird. Sekundäre Paraphrasierungs-Tools, wie Humanizer, können Wörter oder Satzstrukturen leicht verändern und Fehler oder Unsinn einfügen, um KI-generierte Inhalte zu tarnen. Leider funktioniert diese dürftige Tarnung manchmal. Pangram Labs hat 19 verschiedene KI-Humanizer getestet und festgestellt, dass viele das Wasserzeichen erfolgreich aus dem Text entfernen konnten.

Kriminelle können Texte auch „waschen“, indem sie diese durch mehrere verschiedene Übersetzungen laufen lassen, bevor sie sie wieder ins Englische zurückübersetzen, Wasserzeichen entfernen und so einen „sauberen“ Text erstellen, der die Dekodierungssysteme der KI-Unternehmen nicht auslöst.

Wasserzeichen sind empfindlich und lassen sich leicht manipulieren, wodurch sie unbrauchbar werden. Zu ihrer Erkennung sind andere Hilfsmittel erforderlich.

Statistische Mustererkennung

Die Unternehmen, die für KI-generierten Schund verantwortlich sind, können nicht allein dafür zuständig sein, festzustellen, ob ein Inhalt von ihnen stammt. Wasserzeichen erfordern die Mitwirkung von KI-Entwicklern und lassen sich im Handumdrehen entfernen.

Doch wo eine Methode versagt, setzt sich eine andere durch. Eine Methode namens „Independent Statistical Pattern Recognition“ ist bei der Erkennung von KI-generierten Inhalten weitaus robuster und zuverlässiger, weshalb wir sie hier bei Pangram einsetzen. Wir suchen nicht nach einem versteckten Code, der in KI-generierten Texten eingebettet ist. Stattdessen analysieren die Pangram-Modelle die grundlegende sprachliche DNA, die strukturelle Vorhersehbarkeit und die Syntaxmuster eines jeden Textes, um eine KI-Erkennung mit einer Genauigkeit von 99,98 % zu gewährleisten. Fortschrittliche Detektoren wie Pangram benötigen keine Wasserzeichen, um zu funktionieren. Sie werden anhand vielfältiger Datensätze durch eine Methode namens „Hard Negative Mining“ trainiert, bei der den Detektoren schwer zu erkennende Beispiele zugeführt werden. Pangram kann KI-generierte Inhalte aus Open-Source- oder unveröffentlichten Modellen kennzeichnen, böswillig veränderte Texte identifizieren und eine Zeile-für-Zeile-Analyse von gemischten, KI-generierten und von Menschen verfassten Texten anbieten.

Von der Selbstkontrolle zur unabhängigen Aufdeckung

KI-Unternehmen werden nicht zu den Verfechtern der Authentizität im Internet werden. Wasserzeichen sind eine Strategie, die gegen böswillige Akteure machtlos ist, und eine unabhängige Erkennung ist die einzige wirkliche Lösung.

Unsere Modelle werden bereits in der Praxis eingesetzt. Plattformen, die auf das Vertrauen ihrer Nutzer angewiesen sind, wie beispielsweise Quora, haben eine Erkennung auf API-Ebene in ihren Dienst integriert und nutzen Pangram, um Millionen von Beiträgen zu moderieren und KI-generierte Inhalte zu kennzeichnen.

Echte Authentizität und Transparenz im Internet lassen sich nur mit einem auf Erkennung basierenden Rahmenwerk erreichen. Zuverlässige, unabhängige und hochmoderne Erkennungssysteme wie Pangram tragen dazu bei, ein System der gegenseitigen Kontrolle für das gesamte Internet zu schaffen.

Ganz gleich, ob Sie Wissenschaftler, Fachmann oder IT-Entwickler sind: Wasserzeichen sind kein Allheilmittel. Der Schutz vor akademischer Unredlichkeit oder KI-Spam-Inhalten erfordert Erkennung. Um die Herkunft von Aufsätzen, E-Mails und Social-Media-Beiträgen genau zu überprüfen, müssen Organisationen Erkennungswerkzeuge einsetzen, die Texte analysieren, anstatt auf Wasserzeichen zu setzen.

Verlassen Sie sich nicht auf Wasserzeichen, um Ihre Plattform zu schützen. Erkennen Sie mit Pangram sofort manipulierte, KI-generierte Inhalte.

Weiterführende Literatur

Spieglein, Spieglein an der Wand, wer ist die Echteste im ganzen Land?
Bildung

Spieglein, Spieglein an der Wand, wer ist die Echteste im ganzen Land?

25. Juli 2025
Ein Streifzug durch die am häufigsten verwendeten Phrasen der KI
Bildung

Ein Streifzug durch die am häufigsten verwendeten Phrasen der KI

21. Februar 2025
Ein bewährtes Korrekturlesetool nutzt nun KI, um für Schüler zu schreiben.
Bildung

Ein bewährtes Korrekturlesetool nutzt nun KI, um für Schüler zu schreiben.

6. März 2025
Wie man KI auf Reddit erkennt – Kampf gegen die Bots
Bildung

Wie man KI auf Reddit erkennt – Kampf gegen die Bots

6. Februar 2026
AI-Humanisierer: Das (Slop)^2-Problem
Bildung

AI-Humanisierer: Das (Slop)^2-Problem

27. Februar 2026
Wie man Beweise für einen Fall von akademischer Unredlichkeit im Zusammenhang mit KI sammelt
Bildung

Wie man Beweise für einen Fall von akademischer Unredlichkeit im Zusammenhang mit KI sammelt

13. März 2025