Sachez immédiatement ce qui est publié par des humains et ce qui l'est par l'IA sur Twitter, LinkedIn, Substack et bien d'autres plateformes. Téléchargez notre nouvelle extension Chrome.

Nous publions aujourd'hui Pangram 3.3. À l'instar des modèles précédents de la série Pangram 3, Pangram 3.3 repose sur l'architecture EditLens que nous avons présentée dans notre article publié lors de la conférence ICLR 2026.
Consultez ici la fiche technique du Pangram 3.3
Au cours des dernières semaines, vous avez peut-être remarqué que certains textes issus des dernières versions d'OpenAI et d'Anthropic avaient été classés à tort comme étant d'origine humaine. Dans le cadre de cette mise à jour, nous nous sommes attachés à réduire notre taux de faux négatifs, c'est-à-dire la proportion de textes générés par l'IA que le modèle classe à tort comme étant d'origine humaine, pour les contenus rédigés par ces modèles récemment mis à disposition.
Comme toujours, nous nous engageons à maintenir notre taux de faux positifs, qui est le meilleur du secteur. Nous ne lancerons jamais un modèle qui réduirait notre taux global de faux négatifs au prix d'une classification erronée d'un plus grand nombre de textes rédigés par des humains comme étant générés par l'IA. Vous ne devriez constater aucune augmentation des faux positifs avec Pangram 3.3.
Outre l'amélioration du taux de faux négatifs pour des modèles tels que Claude 4.7 et GPT 5.4+, Pangram 3.3 affiche également de meilleures performances sur les textes de style humain, les documents longs et les tests de référence en écriture pour les locuteurs non natifs.
Pangram 3.3 est bien plus performant que la version précédente pour détecter les sorties brutes issues de la dernière génération de modèles de langage grand public (LLM), notamment Claude 4.7 et GPT 5.4+. Nos évaluations internes montrent une amélioration multipliée par trois pour la détection des textes générés par GPT-5.5 Pro et une amélioration de plus de quatre fois pour Claude Opus 4.7 par rapport à Pangram 3.2.
Pangram 3.3 affiche une nette amélioration lors des évaluations des systèmes d'humanisation, détectant deux fois plus de textes humanisés à des fins commerciales que son prédécesseur. Pangram 3.3 est également plus performant pour détecter les sorties de modèles de langage de grande envergure (LLM) générées de manière antagoniste, c'est-à-dire lorsque les utilisateurs demandent au LLM de contourner la détection : nous avons constaté une amélioration multipliée par trois sur notre ensemble de données antagonistes interne par rapport au modèle Pangram précédent.
Notre modèle précédent classait parfois à tort les documents générés par IA plus longs (plus de 2 000 mots) comme « mixtes », en attribuant notamment à tort la mention « entièrement rédigé par un humain » à des segments situés vers la fin du texte. Pangram 3.3 réduit considérablement cette erreur de classification pour les textes synthétiques longs.
Si notre taux global de faux positifs a diminué grâce aux progrès réalisés dans des domaines complexes tels que la poésie, nous avons constaté une légère augmentation du taux de faux positifs pour les textes rédigés par des humains et traduits via Google Translate. Nous savons que la traduction est un cas d'utilisation courant des modèles de langage de grande envergure (LLM), et nous menons actuellement des expériences visant à modéliser et à rendre compte des résultats pour les textes traduits par l'IA dans nos futurs modèles.
L'utilisation des agents a explosé au cours des six derniers mois. Nous commençons à voir les processus de rédaction associant humains et IA évoluer vers un modèle collaboratif, où plusieurs cycles d'itération entremêlent, au sein d'un même document, des textes rédigés par des humains et générés par l'IA. L'un de nos principaux objectifs est d'améliorer notre modélisation de ce type de document co-rédigé. Nous sommes ravis de nous appuyer sur EditLens afin de vous fournir les résultats les plus précis sur les textes à auteurs multiples, ainsi que de permettre aux utilisateurs de comprendre ce que signifie un texte « légèrement » ou « modérément » assisté par l'IA.
Comme pour nos deux modèles précédents, vous pouvez à tout moment consulter les performances du modèle actuel sur différents domaines et ensembles de données dans notre fiche de modèle.

Katherine Thai est chercheuse fondatrice en intelligence artificielle chez Pangram Labs, une start-up spécialisée dans la détection par IA. Elle a obtenu son doctorat en informatique sous la direction de Mohit Iyyer à l'université du Massachusetts à Amherst en décembre 2025, où ses travaux portaient sur l'évaluation des modèles de langage à grande échelle (LLM) dans le cadre de tâches liées à l'analyse littéraire.






