Annonce d'un nouveau partenariat avec Proofig ! En savoir plus

Oui, la détection par IA peut être précise.

Alex Roitman
16 septembre 2025

TLDR ; Les universitaires et les modérateurs de contenu devraient réévaluer leur appréciation des outils de détection ou des vérificateurs d'IA. Le consensus qui s'était dégagé en 2023 à partir d'articles universitaires et des médias grand public est désormais dépassé. Les derniers modèles de détection d'IA, tels que Pangram, ont non seulement rattrapé leur retard sur les derniers LLM, mais sont également conçus pour être à l'épreuve du temps.

Comment en sommes-nous arrivés là : brève histoire de la détection de l'IA


Lorsque ChatGPT a été lancé en 2022, les écrivains et les créateurs de contenu se sont rués sur ce nouvel outil d'intelligence artificielle pour créer. Et cela n'a pas cessé depuis. Les créateurs ont exploité ChatGPT (et d'autres modèles d'IA) et ses concurrents pour rédiger tout type de contenu, des documents volumineux tels que des articles de recherche et des romans aux petits extraits tels que des e-mails, des commentaires Reddit et des avis Amazon. Le contenu généré par l'IA a envahi Internet. Cependant, depuis la création des LLM, il existe une demande pour distinguer ce qui est écrit par des humains de ce qui est écrit par l'IA. OpenAI a en fait constaté ce besoin et a créé un produit qui classe les textes comme étant issus de l'IA. À mesure que l'adoption de l'IA s'est développée, la demande de détecteurs ou de classificateurs d'IA a augmenté, en particulier dans les écoles et les universités où l'intégrité académique est primordiale. Certains étudiants (qui sont souvent les premiers à adopter ces technologies) ont utilisé les derniers modèles pour terminer leurs devoirs, passer des examens et postuler à l'université. Certains chercheurs, pressés par le temps, ont pris des raccourcis et soumis des travaux rédigés ou assistés par l'IA pour publication. De nombreux outils ont donc été lancés dans l'espoir de répondre à ces préoccupations. Des éditeurs de logiciels académiques tels que TurnItIn ont lancé en avril 2023 un outil appelé AI Checker afin de répondre aux besoins de leurs clients dans le domaine de l'éducation. Grammarly a également lancé son propre outil en 2024, appelé Grammarly Authorship. L'idée dominante de ces entreprises était que si leurs outils pouvaient identifier le plagiat, ils devaient également identifier l'IA. L'enseignement supérieur, en particulier, devait passer des « vérificateurs de plagiat » aux « vérificateurs d'IA ». Cependant, il était clair dès le début que cela ne fonctionnerait pas.

Les premiers détecteurs d'IA promettaient une grande précision grâce à l'utilisation des concepts de « perplexité » et de « burstiness ». Bradley Emi, directeur technique chez Pangram, explique ces termes : «La perplexité correspond au degré d'imprévisibilité ou de surprise de chaque mot dans un texte. La burstiness correspond à la variation de la perplexité au cours d'un document. Si des mots et des expressions surprenants sont disséminés tout au long du document, celui-ci présente alors une burstiness élevée. »

Nous ne nous attarderons pas sur ces termes, mais le fait de trop s'appuyer sur ces facteurs lors de la création d'un outil de détection de l'IA entraîne trois défauts récurrents :

Il s'agit là de préoccupations réelles pour les établissements universitaires en particulier. Le poids d'une fausse accusation portée contre des étudiants et des chercheurs pour avoir utilisé l'IA dans leurs études et leurs travaux est énorme. Cela peut ruiner des carrières. Il est extrêmement risqué de se fier à des outils dont l'efficacité n'est que de 95 % pour filtrer l'IA. C'est pourquoi de nombreux établissements universitaires de renom, tels que le MIT, Vanderbilt et UC Berkeley, ne soutiennent pas l'utilisation de détecteurs d'IA par leurs enseignants. Dans de nombreux cas, ils ont cité des articles de recherche spécifiques qui soulignent les mauvaises performances des détecteurs d'IA, tels que Testing of Detection Tools for AI-Generated Text(Test des outils de détection des textes générés par l'IA), et des articles spécialisés tels que Why AI writing detectors don't work (Pourquoi les détecteurs d'écriture IA ne fonctionnent pas).

OpenAI a trouvé ces problèmes si difficiles à résoudre qu'ils ont abandonné leur classificateur de texte IA en juillet 2023, invoquant « le faible taux de précision du classificateur IA ». De nombreux administrateurs scolaires en sont arrivés à la conclusion suivante : si OpenAI n'y parvient pas, c'est probablement impossible.

Alors que les meilleures universités et le grand public s'accordaient à dire que la promesse de la détection de l'IA était impossible, voire illusoire, des entreprises telles que Pangram Labs ont apporté des améliorations significatives dans ce domaine, faisant de la détection de l'IA un outil essentiel dans les universités et les entreprises.

Pourquoi la détection de l'IA sera différente en 2025

La détection de l'IA est souvent qualifiée de course à l'armement entre les étudiants à la recherche de raccourcis et les enseignants qui cherchent à distinguer les textes rédigés par des humains de ceux qui ne le sont pas. En 2025, les détecteurs ont relevé la barre.

En août 2025, deux chercheurs de Chicago Booth, Brian Jabarian et Alex Emi, ont publié un article intitulé Écriture artificielle et détection automatisée, dans lequel ils affirment que « la plupart des détecteurs d'IA commerciaux fonctionnent remarquablement bien, Pangram en particulier atteignant des taux de faux positifs et de faux négatifs proches de zéro ». Ils qualifient Pangram de « seul détecteur qui respecte une limite stricte (taux de faux positifs ≤ 0,005) sans compromettre sa capacité à détecter avec précision les textes générés par l'IA ». Cet exemple illustre les progrès considérables réalisés en matière de détection de l'IA en quelques années seulement. Mais comment cela a-t-il été possible ?

Tout d'abord, les chercheurs en IA ont amélioré les ensembles de données en collectant un plus large éventail de textes humains et de textes générés par l'IA. Cela inclut non seulement des articles universitaires, mais aussi d'autres écrits tels que des e-mails et des articles. Ensuite, les développeurs ont utilisé l'apprentissage actif pour réduire les taux de faux positifs. Cela signifie qu'ils recherchent les textes les plus difficiles à classer comme étant générés par l'IA ou par des humains, puis les réintègrent dans leurs modèles.

Et dans la course à l'armement, les créateurs d'IA générique n'ont pas réagi suffisamment pour contourner certains détecteurs d'IA. Lorsque le très médiatisé GPT-5 d'OpenAI a été lancé, il promettait moins d'hallucinations, un ton amélioré et une écriture plus créative. En moins de 12 heures, Max Spero, cofondateur de Pangram Labs, a publié sur LinkedIn que sans formation supplémentaire, l'outil de détection d'IA de Pangram pouvait classer les tests GPT-5 à un rythme similaire à celui des modèles précédents :

« Pangram est le seul détecteur d'IA capable de détecter de manière fiable le GPT-5 sans avoir été explicitement formé à cet effet. »

Les institutions s'adaptent à la nouvelle réalité

L'utilisation des détecteurs d'IA suscite de réelles inquiétudes. Beaucoup d'entre eux présentent encore des taux de faux positifs alarmants et vantent à tort leur précision. Cependant, certaines des technologies les plus récentes sont incroyablement fiables et sont activement intégrées dans les entreprises et les universités. Par exemple, la société d'expertise Qwoted a récemment intégré la détection IA dans son flux de travail afin de réduire le nombre de citations rédigées par l'IA provenant d'« experts ». « L'avenir du journalisme repose sur la confiance. C'est pourquoi nous sommes ravis de nous associer à Pangram, qui a établi la norme d'excellence en matière de détection et d'attribution IA. »

Les chercheurs et les journalistes reviennent également dans le giron. Les détracteurs de longue date reviennent sur leurs positions et cherchent des moyens d'intégrer la détection de l'IA dans une politique plus large en matière d'IA. Rob Waugh, de Press Gazette, a récemment recommandé Pangram aux utilisateurs qui souhaitent repérer les textes générés par l'IA. « Ces outils ne sont pas fiables à 100 %, mais Pangram a été jugé précis par rapport à d'autres vérificateurs d'IA en ligne, et est intégré à des services de réponse aux journalistes tels que Qwoted pour détecter les argumentaires et les textes générés par l'IA. »

Nous aimerions discuter de votre cas d'utilisation et voir si Pangram pourrait être utile à votre organisation. Testez-nous et contactez-nous pour en savoir plus sur nos offres pour les entreprises.

Abonnez-vous à notre newsletter
Nous partageons chaque mois les dernières avancées de nos recherches en matière de détection de l'IA.