Wir stellen Open Pangram vor

Katherine Thai
24. März 2026

🤗 Modelle & Datensätze

Quellcode

Wir sind stolz und freuen uns, zwei Versionen von Pangram vorstellen zu können, die auf der EditLens-Technologie basieren, die wir in unserem ICLR-Beitrag von 2026 vorgestellt haben. Diese beiden ressourcenschonenden Modelle stehen unter der CC BY-NC-SA 4.0-Lizenz für nichtkommerzielle Zwecke zur Verfügung und können auf einem MacBook ausgeführt werden.

Warum veröffentlichen wir eine offene Version von Pangram?

Wir haben uns schon immer intensiv mit dem Stand der KI-Erkennung beschäftigt und möchten anderen Forschern ermöglichen, in diesem Bereich Fortschritte zu erzielen. Wir haben bereits zuvor einen Beitrag zur Community geleistet, indem wir unser EditLens-Papier veröffentlicht haben, das neuartige Methoden zur Analyse und Klassifizierung von KI-generierten Inhalten vorstellt, groß angelegte Analysen von Peer-Reviews und amerikanischen Zeitungen durchgeführt haben und Forschern API-Zugänge zur Verfügung gestellt haben. Durch die Veröffentlichung der EditLens-Modell-Checkpoints, des Trainingsdatensatzes und des Quellcodes hoffen wir, dass Forscher auf unserer Arbeit aufbauen können.

EditLens und KI-gestützte Erkennung

Die KI-Erkennung muss sich mit der Weiterentwicklung generativer KI weiterentwickeln. Eine aktuelle Studie von OpenAI ergab, dass zwei Drittel aller Schreibanfragen an ChatGPT die Bearbeitung von benutzereingebrachtem Text betreffen, anstatt diesen von Grund auf neu zu generieren. Angesichts dieses sich abzeichnenden Paradigmas, bei dem Menschen und KI gemeinsam Texte verfassen, haben wir ein neuartiges Erkennungsframework entwickelt, das berücksichtigt, inwieweit KI zu einem Text beigetragen hat. Pangram-Nutzern ist vielleicht aufgefallen, dass unser Modell Ergebnisse wie „Lightly AI-Assisted“ (leicht KI-unterstützt) oder „Moderately AI-Assisted“ (mäßig KI-unterstützt) liefert. Diese Klassifizierungen werden durch die Technologie ermöglicht, die in unserem ICLR-2026-Forschungsartikel„EditLens: Quantifying the Extent of AI Editing in Text“ vorgestellt wird. Darin wird ein KI-Erkennungsmodell vorgestellt, das einen Wert zwischen 0 und 1 zurückgibt, wobei 0 für vollständig von Menschen verfassten Text und 1 für vollständig von KI generierten Text steht. Mit der Veröffentlichung unseres Datensatzes und des Quellcodes kann nun jeder sein eigenes EditLens-Modell trainieren.

Datensätze

Wir veröffentlichen den EditLens-Datensatz mit 60.000 Trainings-, 2.400 Validierungs- und 6.000 Testbeispielen. Jeder Teil besteht aus vollständig von Menschen verfassten, vollständig von KI generierten und von KI bearbeiteten Texten aus vier Themenbereichen. Die KI-bearbeiteten Texte wurden generiert, indem eine Bearbeitungsanweisung auf einen von Menschen verfassten Quelltext aus einem von fünf Bereichen angewendet wurde: Nachrichten (Narayan et al., 2018 und See et al., 2017), kreatives Schreiben (Fan et al., 2018), Amazon-Rezensionen (Zhang et al., 2015), Google-Rezensionen (Li et al., 2022) und bildungsbezogene Webinhalte (Lozhkov et al., 2024).

Die Modelle, die zur Erstellung der KI-generierten und KI-bearbeiteten Texte verwendet wurden, waren die von OpenAI gpt-4.1-2025-04-14 , von Anthropic claude-sonnet-4-20250514 und Googlesgemini-2.5-flash.

Der EditLens-Datensatz enthält außerdem zwei Bewertungs-Splits außerhalb des Trainingsbereichs: 6.000 Beispiele aus einem zurückbehaltenen Quelltextbereich (E-Mails) und eine von Meta generierte Version des Test-Splits Llama-3.3-70B-Instruct-Turbo .

Darüber hinaus veröffentlichen wir einen von uns zusammengestellten Datensatz mit fast 1.800 Texten, die mit Grammarly bearbeitet wurden. Dieser Datensatz umfasst 9 verschiedene Bearbeitungsvorschläge für 200 von Menschen verfasste Ausgangstexte. Jeder dieser Bearbeitungsvorschläge (z. B. „Vereinfachen Sie dies“) ist ein Vorschlag aus dem integrierten Textverarbeitungsprogramm von Grammarly. Die 200 von Menschen verfassten Quelltexte stammen aus einem der Datensätze Persuade 2.0 (Crossley et al., 2024), ELLIPSE (Crossley et al., 2023), BAWE (Nesi et al., 2004), ICNALE (Ishikawa et al., 2007), CLASSE (Crossley et al., 2024) oder PIILO (Holmes et al., 2023) stammen.

Sie können beide Datensätze auf HuggingFace erkunden.

Modelle

pangram/editlens_Llama-3.2-3B wurde mit QLoRA bei einer maximalen Sequenzlänge von 1024 Tokens feinabgestimmt. Das Basismodell verfügt über 3 Milliarden Parameter.

Pangram/editlens_roberta-large, ein Modell mit 355 Millionen Parametern, wurde mit einer maximalen Sequenzlänge von 512 Tokens feinabgestimmt.

Beide Modelle wurden gemäß der im EditLens-Artikel beschriebenen Methode für eine Epoche trainiert. Weitere Hyperparameter und den Trainingscode für beide Modelle finden Sie im GitHub-Repository von EditLens. Die Modell-Checkpoints können Sie von HuggingFace herunterladen.

Bewertungen

Sowohl für die binäre als auch für die ternäre Klassifizierung ermitteln wir die Schwellenwerte durch Kalibrierung am zurückgehaltenen Validierungssatz.

Bei den binären Bewertungen ermitteln wir den Schwellenwert, der den F1-Score für die Unterscheidung zwischen vollständig von Menschen verfassten und vollständig von KI generierten Texten maximiert. In den binären Bewertungen gibt es keine von KI bearbeiteten Texte.

Für die dreistufigen Bewertungen ermitteln wir zwei Schwellenwerte. Zunächst unterteilen wir die Bewertungsdaten in drei Kategorien: „menschlich“, „KI“ und „KI-bearbeitet“. Anschließend ermitteln wir einen unteren Schwellenwert, der die Klasse „menschlich“ von der Vereinigung der Daten der Klassen [KI, KI-bearbeitet] trennt, sowie einen oberen Schwellenwert, der die Klasse „KI“ von der Vereinigung der Daten der Klassen [menschlich, KI-bearbeitet] trennt. Beide Schwellenwerte werden durch Maximierung des F1-Scores ermittelt.

Domäneninterner Testdatensatz

Ergebnisse der binären Klassifizierung

2.038 von Menschen verfasste und 2.046 KI-generierte Texte

DetektorMakro F1FPRFNR
Pangram 3.2 (aktuelles Serienmodell)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B1.0000.0000.000
Pangram OSS: editlens_roberta-large0.9970.0020.003
Fast-DetectGPT0.8950.1210.088
Fernglas0.8860.1280.101

Ergebnisse der ternären Klassifizierung

2.038 von Menschen verfasste, 2.046 KI-generierte und 2.031 von KI bearbeitete Texte

DetektorGenauigkeitMakro F1Mensch F1AI F1KI-bearbeitet F1
Pangram 3.2 (aktuelles Serienmodell)0.9200.9200.9260.9570.876
Pangram OSS: editlens_Llama-3.2-3B0.8950.8950.8950.9480.842
Pangram OSS: editlens_roberta-large0.8810.8810.9000.9230.819
Fast-DetectGPT0.5850.5450.2460.8310.558
Fernglas0.5690.5230.2130.8110.545

Betroffene Domain (Enron-E-Mails)

Ergebnisse der binären Klassifizierung

1.992 von Menschen verfasste und 1.847 KI-generierte Texte

DetektorMakro F1FPRFNR
Pangram 3.2 (aktuelles Serienmodell)0.9990.0010.001
Pangram OSS: editlens_Llama-3.2-3B0.9980.0010.004
Pangram OSS: editlens_roberta-large0.9660.0010.068
Fast-DetectGPT0.9410.0790.036
Fernglas0.9140.1550.011

Ergebnisse der ternären Klassifizierung

1.992 von Menschen verfasste, 1.847 KI-generierte und 2.308 von KI bearbeitete Texte

DetektorGenauigkeitMakro F1Mensch F1AI F1KI-bearbeitet F1
Pangram 3.2 (aktuelles Serienmodell)0.9050.9090.8980.9560.872
Pangram OSS: editlens_Llama-3.2-3B0.8630.8680.8550.9360.812
Pangram OSS: editlens_roberta-large0.6950.6730.8470.5150.657
Fast-DetectGPT0.6250.5890.2610.8860.619
Fernglas0.6180.5750.2660.8570.601

Vorläufiges Modell (Llama 3.3 70B Instruct)

Ergebnisse der binären Klassifizierung

2.038 von Menschen verfasste und 2.038 KI-generierte Texte

DetektorMakro F1FPRFNR
Pangram 3.2 (aktuelles Serienmodell)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B1.0000.0000.000
Pangram OSS: editlens_roberta-large0.9870.0020.025
Fast-DetectGPT0.9390.1210.000
Fernglas0.9360.1280.000

Ergebnisse der ternären Klassifizierung

2.038 von Menschen verfasste, 2.038 KI-generierte und 1.881 von KI überarbeitete Texte

DetektorGenauigkeitMakro F1Mensch F1AI F1KI-bearbeitet F1
Pangram 3.2 (aktuelles Serienmodell)0.9520.9510.9460.9850.923
Pangram OSS: editlens_Llama-3.2-3B0.9210.9200.9180.9650.877
Pangram OSS: editlens_roberta-large0.8600.8590.9080.8790.791
Fast-DetectGPT0.5620.5060.2620.8170.440
Fernglas0.5400.4780.2270.7960.411

Benchmarks von Drittanbietern

Nicht-Muttersprachler (Liang et al., 2023)

91 menschliche Texte

DetektorFPR
Pangram 3.2 (aktuelles Serienmodell)0.000
Pangram OSS: editlens_Llama-3.2-3B0.055
Pangram OSS: editlens_roberta-large0.099
Fernglas0.560
Fast-DetectGPT0.670

Human Detectors (Russell et al., 2024)

150 von Menschen verfasste und 150 KI-generierte Texte

DetektorMakro F1FPRFNR
Pangram 3.2 (aktuelles Serienmodell)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B0.9870.0270.000
Pangram OSS: editlens_roberta-large0.9600.0200.060
Fernglas0.8460.0870.220
Fast-DetectGPT0.7350.4870.013

RAID, zufällige Stichprobe von 10.000 Datensätzen (Dugan et al., 2024)

2.058 von Menschen verfasste und 7.942 KI-generierte Texte

DetektorMakro F1FPRFNR
Pangram 3.2 (aktuelles Serienmodell)0.9920.0020.007
Fast-DetectGPT0.9410.0780.028
Fernglas0.9390.1000.024
Pangram OSS: editlens_Llama-3.2-3B0.9300.0030.062
Pangram OSS: editlens_roberta-large0.7360.0070.288

Grammarly-Datensatz

In diesen Boxplots zeigen wir die Verteilung der Bewertungen für den von uns gesammelten Grammarly-Datensatz, gruppiert nach den vorgenommenen Änderungen. Wir stellen fest, dass EditLens Änderungen wie „Fehler korrigieren“, die kleinen Korrekturen in Grammatik und Rechtschreibung entsprechen, sehr niedrige, fast menschenähnliche Bewertungen zuweist, während „ergänzende“ Änderungen wie „Detaillierter formulieren“ höhere Bewertungen erhalten.

Verteilung der Punktzahlen nach Bearbeitungsanweisungen für Pangram OSS: editlens_Llama-3.2-3B

Verteilung der Punktzahlen nach Bearbeitungsanweisung für Pangram OSS: editlens_roberta-large

Wofür sollte Open Pangram verwendet werden?

Wir empfehlen Forschern, die Open-Pangram-Modelle als Ausgangsbasis für ihre Forschung im Bereich der KI-Erkennung zu nutzen. Wir hoffen, dass die Datensätze und der Quellcode den Forschern ermöglichen, unsere Arbeit weiterzuentwickeln.

Wofür sollte Open Pangram NICHT verwendet werden?

Die kommerzielle Nutzung von Open Pangram ist nicht gestattet. Die Open-Pangram-Modelle dürfen NICHT dazu verwendet werden, in einem Bildungs- oder beruflichen Umfeld Richtlinien zur Nutzung von KI durchzusetzen. Wenn Sie ein präziseres Modell mit einer branchenführenden Falsch-Positiv-Rate benötigen, kontaktieren Sie uns bitte bezüglich unserer Unternehmensangebote oder Forschungs-API-Zuschüsse.

Abonnieren Sie unseren Newsletter
Wir veröffentlichen monatliche Updates zu unserer Forschung im Bereich der KI-Erkennung.