Apresentamos o Open Pangram

Katherine Thai
24 de março de 2026

🤗 Modelos e conjuntos de dados

Código-fonte

É com orgulho e entusiasmo que partilhamos duas versões do Pangram baseadas na tecnologia EditLens que propusemos no nosso artigo apresentado na ICLR de 2026. Disponíveis para uso não comercial ao abrigo da licença CC BY-NC-SA 4.0, estes dois modelos leves podem ser executados num MacBook.

Por que estamos a lançar uma versão aberta do Pangram?

Sempre nos empenhámos no avanço da deteção de IA e queremos permitir que outros investigadores avancem nesta área. Já contribuímos anteriormente para a comunidade através da publicação do nosso artigo sobre o EditLens, que apresenta novas formas de analisar e classificar conteúdos gerados por IA, da realização de análises em grande escala de revisões por pares e de jornais americanos, e da oferta de bolsas de API a investigadores. Ao disponibilizar os pontos de verificação do modelo EditLens, o conjunto de dados de treino e o código-fonte, esperamos que os investigadores possam continuar a desenvolver o nosso trabalho.

EditLens e deteção assistida por IA

A deteção de IA deve evoluir à medida que a utilização da IA generativa evolui. Um estudo recente da OpenAI revelou que dois terços de todos os pedidos relacionados com escrita dirigidos ao ChatGPT envolvem a modificação de texto fornecido pelo utilizador, em vez da sua geração a partir do zero. À luz deste paradigma emergente de coautoria de texto entre humanos e IA, desenvolvemos uma nova estrutura de deteção que considera o grau de contribuição da IA para um texto. Os utilizadores do Pangram podem ter notado que o nosso modelo apresenta resultados como «Ligeiramente assistido por IA» ou «Moderadamente assistido por IA». Estas classificações são possíveis graças à tecnologia apresentada no nosso artigo de investigação da ICLR 2026,“EditLens: Quantifying the Extent of AI Editing in Text”, que introduz um modelo de deteção de IA que devolve uma pontuação de 0 a 1, sendo que 0 indica texto totalmente escrito por humanos e 1 indica texto totalmente gerado por IA. Com o lançamento do nosso conjunto de dados e código-fonte, qualquer pessoa pode agora treinar o seu próprio modelo EditLens.

Conjuntos de dados

Estamos a disponibilizar o conjunto de dados EditLens, composto por 60 mil exemplos de treino, 2,4 mil de validação e 6 mil de teste. Cada subconjunto é constituído por textos totalmente escritos por humanos, totalmente gerados por IA e editados por IA, provenientes de quatro domínios. Os textos editados por IA foram gerados através da aplicação de um prompt de edição a um texto original escrito por humanos proveniente de um dos 5 domínios: notícias (Narayan et al., 2018 e See et al., 2017), escrita criativa (Fan et al., 2018), críticas da Amazon (Zhang et al., 2015), críticas do Google (Li et al., 2022) e conteúdo web relacionado com a educação (Lozhkov et al., 2024).

Os modelos utilizados para gerar os textos criados e editados por IA foram os da OpenAI gpt-4.1-2025-04-14 , da Anthropic claude-sonnet-4-20250514 , e do Googlegemini-2.5-flash.

O conjunto de dados EditLens inclui também duas divisões de avaliação fora do domínio: 6 mil exemplos de um domínio de texto de origem não utilizado (e-mails) e uma versão da divisão de teste gerada pela Meta Llama-3.3-70B-Instruct-Turbo .

Além disso, estamos a disponibilizar um conjunto de dados que recolhemos, composto por cerca de 1,8 mil textos editados com o Grammarly. Este conjunto de dados consiste em 9 edições diferentes de 200 textos originais escritos por humanos. Cada uma das edições (por exemplo, «Simplifique isto») é uma sugestão de edição do processador de texto integrado no Grammarly. Os 200 textos originais escritos por humanos foram selecionados a partir de um dos conjuntos de dados Persuade 2.0 (Crossley et al., 2024), ELLIPSE (Crossley et al., 2023), BAWE (Nesi et al., 2004), ICNALE (Ishikawa et al., 2007), CLASSE (Crossley et al., 2024) ou PIILO (Holmes et al., 2023).

Pode explorar ambos os conjuntos de dados no HuggingFace.

Modelos

pangram/editlens_Llama-3.2-3B foi ajustado utilizando o QLoRA com um comprimento máximo de sequência de 1024 tokens. O modelo base tem 3 mil milhões de parâmetros.

pangram/editlens_roberta-large, um modelo com 355 milhões de parâmetros, foi ajustado com um comprimento máximo de sequência de 512 tokens.

Ambos os modelos foram treinados durante 1 época, de acordo com o método descrito no artigo sobre o EditLens. Os hiperparâmetros adicionais e o código de treino para ambos os modelos podem ser encontrados no repositório GitHub do EditLens. Pode descarregar os checkpoints dos modelos a partir do HuggingFace.

Avaliações

Tanto para a classificação binária como para a ternária, determinamos os limiares através da calibração no conjunto de validação retido.

Nas avaliações binárias, determinamos o limiar que maximiza o F1-score para distinguir textos inteiramente escritos por humanos dos textos inteiramente gerados por IA. Não há textos editados por IA nas avaliações binárias.

Para as avaliações ternárias, determinamos dois limiares. Primeiro, separamos os dados de avaliação em três categorias: humano, IA e editado por IA. Em seguida, determinamos um limiar inferior que separa a classe «humano» da união dos dados [IA, editado por IA] e um limiar superior que separa a classe «IA» da união dos dados [humano, editado por IA]. Ambos os limiares são determinados através da maximização do índice F1.

Conjunto de testes no domínio

Resultados da classificação binária

2 038 textos escritos por humanos e 2 046 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B1.0000.0000.000
Pangram OSS: editlens_roberta-large0.9970.0020.003
Fast-DetectGPT0.8950.1210.088
Binóculos0.8860.1280.101

Resultados da classificação ternária

2 038 textos escritos por humanos, 2 046 textos gerados por IA e 2 031 textos editados por IA

DetetorPrecisãoMacro F1F1 humanaAI F1F1 editada por IA
Pangram 3.2 (Modelo de produção atual)0.9200.9200.9260.9570.876
Pangram OSS: editlens_Llama-3.2-3B0.8950.8950.8950.9480.842
Pangram OSS: editlens_roberta-large0.8810.8810.9000.9230.819
Fast-DetectGPT0.5850.5450.2460.8310.558
Binóculos0.5690.5230.2130.8110.545

Domínio retido (e-mails da Enron)

Resultados da classificação binária

1 992 textos escritos por humanos e 1 847 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)0.9990.0010.001
Pangram OSS: editlens_Llama-3.2-3B0.9980.0010.004
Pangram OSS: editlens_roberta-large0.9660.0010.068
Fast-DetectGPT0.9410.0790.036
Binóculos0.9140.1550.011

Resultados da classificação ternária

1 992 textos escritos por humanos, 1 847 textos gerados por IA e 2 308 textos editados por IA

DetetorPrecisãoMacro F1F1 humanaAI F1F1 editada por IA
Pangram 3.2 (Modelo de produção atual)0.9050.9090.8980.9560.872
Pangram OSS: editlens_Llama-3.2-3B0.8630.8680.8550.9360.812
Pangram OSS: editlens_roberta-large0.6950.6730.8470.5150.657
Fast-DetectGPT0.6250.5890.2610.8860.619
Binóculos0.6180.5750.2660.8570.601

Modelo apresentado (Llama 3.3 70B Instruct)

Resultados da classificação binária

2 038 textos escritos por humanos e 2 038 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B1.0000.0000.000
Pangram OSS: editlens_roberta-large0.9870.0020.025
Fast-DetectGPT0.9390.1210.000
Binóculos0.9360.1280.000

Resultados da classificação ternária

2 038 textos escritos por humanos, 2 038 textos gerados por IA e 1 881 textos editados por IA

DetetorPrecisãoMacro F1F1 humanaAI F1F1 editada por IA
Pangram 3.2 (Modelo de produção atual)0.9520.9510.9460.9850.923
Pangram OSS: editlens_Llama-3.2-3B0.9210.9200.9180.9650.877
Pangram OSS: editlens_roberta-large0.8600.8590.9080.8790.791
Fast-DetectGPT0.5620.5060.2620.8170.440
Binóculos0.5400.4780.2270.7960.411

Testes de desempenho realizados por terceiros

Inglês não nativo (Liang et al., 2023)

91 textos escritos por humanos

DetetorFPR
Pangram 3.2 (Modelo de produção atual)0.000
Pangram OSS: editlens_Llama-3.2-3B0.055
Pangram OSS: editlens_roberta-large0.099
Binóculos0.560
Fast-DetectGPT0.670

Detectores de Pessoas (Russell et al., 2024)

150 textos escritos por humanos e 150 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B0.9870.0270.000
Pangram OSS: editlens_roberta-large0.9600.0200.060
Binóculos0.8460.0870.220
Fast-DetectGPT0.7350.4870.013

RAID, amostra aleatória de 10 000 (Dugan et al., 2024)

2 058 textos escritos por humanos e 7 942 textos gerados por IA

DetectorcMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)0.9920.0020.007
Fast-DetectGPT0.9410.0780.028
Binóculos0.9390.1000.024
Pangram OSS: editlens_Llama-3.2-3B0.9300.0030.062
Pangram OSS: editlens_roberta-large0.7360.0070.288

Conjunto de dados do Grammarly

Nestes gráficos de caixa, apresentamos a distribuição das pontuações no conjunto de dados do Grammarly que recolhemos, agrupadas por tipo de edição aplicada. Observamos que o EditLens atribui pontuações muito baixas, próximas das pontuações humanas, a edições como «Corrigir quaisquer erros», que correspondem a pequenas correções gramaticais e ortográficas, enquanto edições mais «aditivas», como «Tornar mais detalhado», recebem pontuações mais elevadas.

Distribuição das pontuações por instrução de edição para o Pangram OSS: editlens_Llama-3.2-3B

Distribuição das pontuações por instrução de edição para o Pangram OSS: editlens_roberta-large

Para que serve o Open Pangram?

Encorajamos os investigadores a utilizarem os modelos Open Pangram como referência nas suas investigações sobre deteção por IA. Esperamos que os conjuntos de dados e o código-fonte permitam aos investigadores dar continuidade ao nosso trabalho.

Para que é que o Open Pangram NÃO deve ser utilizado?

Não é permitida a utilização comercial do Open Pangram. Os modelos do Open Pangram NÃO devem ser utilizados para aplicar qualquer tipo de política de utilização de IA em contextos educativos ou profissionais. Para obter um modelo mais preciso com uma taxa de falsos positivos líder no setor, contacte-nos para conhecer as nossas ofertas empresariais ou as bolsas de API para investigação.

Inscreva-se na nossa newsletter
Partilhamos atualizações mensais sobre a nossa investigação em deteção de IA.