Saiba imediatamente o que é publicado por pessoas e o que é gerado por IA no Twitter, LinkedIn, Substack e outras plataformas. Obtenha a nossa nova extensão para o Chrome.

Notícias

Apresentamos o Open Pangram

24 de março de 2026
Apresentamos o Open Pangram

🤗 Modelos e conjuntos de dados

Código-fonte

É com orgulho e entusiasmo que partilhamos duas versões do Pangram baseadas na tecnologia EditLens que propusemos no nosso artigo apresentado na ICLR de 2026. Disponíveis para uso não comercial ao abrigo da licença CC BY-NC-SA 4.0, estes dois modelos leves podem ser executados num MacBook.

Por que estamos a lançar uma versão aberta do Pangram?

Sempre nos empenhámos no avanço da deteção de IA e queremos permitir que outros investigadores avancem nesta área. Já contribuímos anteriormente para a comunidade através da publicação do nosso artigo sobre o EditLens, que apresenta novas formas de analisar e classificar conteúdos gerados por IA, da realização de análises em grande escala de revisões por pares e de jornais americanos, e da oferta de bolsas de API a investigadores. Ao disponibilizar os pontos de verificação do modelo EditLens, o conjunto de dados de treino e o código-fonte, esperamos que os investigadores possam continuar a desenvolver o nosso trabalho.

EditLens e deteção assistida por IA

A deteção de IA deve evoluir à medida que a utilização da IA generativa evolui. Um estudo recente da OpenAI revelou que dois terços de todos os pedidos relacionados com escrita dirigidos ao ChatGPT envolvem a modificação de texto fornecido pelo utilizador, em vez da sua geração a partir do zero. À luz deste paradigma emergente de coautoria de texto entre humanos e IA, desenvolvemos uma nova estrutura de deteção que considera o grau de contribuição da IA para um texto. Os utilizadores do Pangram podem ter notado que o nosso modelo apresenta resultados como «Ligeiramente assistido por IA» ou «Moderadamente assistido por IA». Estas classificações são possíveis graças à tecnologia apresentada no nosso artigo de investigação da ICLR 2026,“EditLens: Quantifying the Extent of AI Editing in Text”, que introduz um modelo de deteção de IA que devolve uma pontuação de 0 a 1, sendo que 0 indica texto totalmente escrito por humanos e 1 indica texto totalmente gerado por IA. Com o lançamento do nosso conjunto de dados e código-fonte, qualquer pessoa pode agora treinar o seu próprio modelo EditLens.

Conjuntos de dados

Estamos a disponibilizar o conjunto de dados EditLens, composto por 60 mil exemplos de treino, 2,4 mil de validação e 6 mil de teste. Cada subconjunto é constituído por textos totalmente escritos por humanos, totalmente gerados por IA e editados por IA, provenientes de quatro domínios. Os textos editados por IA foram gerados através da aplicação de um prompt de edição a um texto original escrito por humanos proveniente de um dos 5 domínios: notícias (Narayan et al., 2018 e See et al., 2017), escrita criativa (Fan et al., 2018), críticas da Amazon (Zhang et al., 2015), críticas do Google (Li et al., 2022) e conteúdo web relacionado com a educação (Lozhkov et al., 2024).

Os modelos utilizados para gerar os textos criados e editados por IA foram os da OpenAI gpt-4.1-2025-04-14 , da Anthropic claude-sonnet-4-20250514 , e do Googlegemini-2.5-flash.

O conjunto de dados EditLens inclui também duas divisões de avaliação fora do domínio: 6 mil exemplos de um domínio de texto de origem não utilizado (e-mails) e uma versão da divisão de teste gerada pela Meta Llama-3.3-70B-Instruct-Turbo .

Além disso, estamos a disponibilizar um conjunto de dados que recolhemos, composto por cerca de 1,8 mil textos editados com o Grammarly. Este conjunto de dados consiste em 9 edições diferentes de 200 textos originais escritos por humanos. Cada uma das edições (por exemplo, «Simplifique isto») é uma sugestão de edição do processador de texto integrado no Grammarly. Os 200 textos originais escritos por humanos foram selecionados a partir de um dos conjuntos de dados Persuade 2.0 (Crossley et al., 2024), ELLIPSE (Crossley et al., 2023), BAWE (Nesi et al., 2004), ICNALE (Ishikawa et al., 2007), CLASSE (Crossley et al., 2024) ou PIILO (Holmes et al., 2023).

Pode explorar ambos os conjuntos de dados no HuggingFace.

Modelos

pangram/editlens_Llama-3.2-3B foi ajustado utilizando o QLoRA com um comprimento máximo de sequência de 1024 tokens. O modelo base tem 3 mil milhões de parâmetros.

pangram/editlens_roberta-large, um modelo com 355 milhões de parâmetros, foi ajustado com um comprimento máximo de sequência de 512 tokens.

Ambos os modelos foram treinados durante 1 época, de acordo com o método descrito no artigo sobre o EditLens. Os hiperparâmetros adicionais e o código de treino para ambos os modelos podem ser encontrados no repositório GitHub do EditLens. Pode descarregar os checkpoints dos modelos a partir do HuggingFace.

Avaliações

Tanto para a classificação binária como para a ternária, determinamos os limiares através da calibração no conjunto de validação retido.

Nas avaliações binárias, determinamos o limiar que maximiza o F1-score para distinguir textos inteiramente escritos por humanos dos textos inteiramente gerados por IA. Não há textos editados por IA nas avaliações binárias.

Para as avaliações ternárias, determinamos dois limiares. Primeiro, separamos os dados de avaliação em três categorias: humano, IA e editado por IA. Em seguida, determinamos um limiar inferior que separa a classe «humano» da união dos dados [IA, editado por IA] e um limiar superior que separa a classe «IA» da união dos dados [humano, editado por IA]. Ambos os limiares são determinados através da maximização do índice F1.

Conjunto de testes no domínio

Resultados da classificação binária

2 038 textos escritos por humanos e 2 046 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B1.0000.0000.000
Pangram OSS: editlens_roberta-large0.9970.0020.003
Fast-DetectGPT0.8950.1210.088
Binóculos0.8860.1280.101

Resultados da classificação ternária

2 038 textos escritos por humanos, 2 046 textos gerados por IA e 2 031 textos editados por IA

DetetorPrecisãoMacro F1F1 humanaAI F1F1 editada por IA
Pangram 3.2 (Modelo de produção atual)0.9200.9200.9260.9570.876
Pangram OSS: editlens_Llama-3.2-3B0.8950.8950.8950.9480.842
Pangram OSS: editlens_roberta-large0.8810.8810.9000.9230.819
Fast-DetectGPT0.5850.5450.2460.8310.558
Binóculos0.5690.5230.2130.8110.545

Domínio retido (e-mails da Enron)

Resultados da classificação binária

1 992 textos escritos por humanos e 1 847 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)0.9990.0010.001
Pangram OSS: editlens_Llama-3.2-3B0.9980.0010.004
Pangram OSS: editlens_roberta-large0.9660.0010.068
Fast-DetectGPT0.9410.0790.036
Binóculos0.9140.1550.011

Resultados da classificação ternária

1 992 textos escritos por humanos, 1 847 textos gerados por IA e 2 308 textos editados por IA

DetetorPrecisãoMacro F1F1 humanaAI F1F1 editada por IA
Pangram 3.2 (Modelo de produção atual)0.9050.9090.8980.9560.872
Pangram OSS: editlens_Llama-3.2-3B0.8630.8680.8550.9360.812
Pangram OSS: editlens_roberta-large0.6950.6730.8470.5150.657
Fast-DetectGPT0.6250.5890.2610.8860.619
Binóculos0.6180.5750.2660.8570.601

Modelo apresentado (Llama 3.3 70B Instruct)

Resultados da classificação binária

2 038 textos escritos por humanos e 2 038 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B1.0000.0000.000
Pangram OSS: editlens_roberta-large0.9870.0020.025
Fast-DetectGPT0.9390.1210.000
Binóculos0.9360.1280.000

Resultados da classificação ternária

2 038 textos escritos por humanos, 2 038 textos gerados por IA e 1 881 textos editados por IA

DetetorPrecisãoMacro F1F1 humanaAI F1F1 editada por IA
Pangram 3.2 (Modelo de produção atual)0.9520.9510.9460.9850.923
Pangram OSS: editlens_Llama-3.2-3B0.9210.9200.9180.9650.877
Pangram OSS: editlens_roberta-large0.8600.8590.9080.8790.791
Fast-DetectGPT0.5620.5060.2620.8170.440
Binóculos0.5400.4780.2270.7960.411

Testes de desempenho realizados por terceiros

Inglês não nativo (Liang et al., 2023)

91 textos escritos por humanos

DetetorFPR
Pangram 3.2 (Modelo de produção atual)0.000
Pangram OSS: editlens_Llama-3.2-3B0.055
Pangram OSS: editlens_roberta-large0.099
Binóculos0.560
Fast-DetectGPT0.670

Detectores de Pessoas (Russell et al., 2024)

150 textos escritos por humanos e 150 textos gerados por IA

DetetorMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)1.0000.0000.000
Pangram OSS: editlens_Llama-3.2-3B0.9870.0270.000
Pangram OSS: editlens_roberta-large0.9600.0200.060
Binóculos0.8460.0870.220
Fast-DetectGPT0.7350.4870.013

RAID, amostra aleatória de 10 000 (Dugan et al., 2024)

2 058 textos escritos por humanos e 7 942 textos gerados por IA

DetectorcMacro F1FPRFNR
Pangram 3.2 (Modelo de produção atual)0.9920.0020.007
Fast-DetectGPT0.9410.0780.028
Binóculos0.9390.1000.024
Pangram OSS: editlens_Llama-3.2-3B0.9300.0030.062
Pangram OSS: editlens_roberta-large0.7360.0070.288

Conjunto de dados do Grammarly

Nestes gráficos de caixa, apresentamos a distribuição das pontuações no conjunto de dados do Grammarly que recolhemos, agrupadas por tipo de edição aplicada. Observamos que o EditLens atribui pontuações muito baixas, próximas das pontuações humanas, a edições como «Corrigir quaisquer erros», que correspondem a pequenas correções gramaticais e ortográficas, enquanto edições mais «aditivas», como «Tornar mais detalhado», recebem pontuações mais elevadas.

Distribuição das pontuações por instrução de edição para o Pangram OSS: editlens_Llama-3.2-3BDistribuição das pontuações por instrução de edição para o Pangram OSS: editlens_Llama-3.2-3B

Distribuição das pontuações por instrução de edição para o Pangram OSS: editlens_roberta-largeDistribuição das pontuações por instrução de edição para o Pangram OSS: editlens_roberta-large

Para que serve o Open Pangram?

Encorajamos os investigadores a utilizarem os modelos Open Pangram como referência nas suas investigações sobre deteção por IA. Esperamos que os conjuntos de dados e o código-fonte permitam aos investigadores dar continuidade ao nosso trabalho.

Para que é que o Open Pangram NÃO deve ser utilizado?

Não é permitida a utilização comercial do Open Pangram. Os modelos do Open Pangram NÃO devem ser utilizados para aplicar qualquer tipo de política de utilização de IA em contextos educativos ou profissionais. Para obter um modelo mais preciso com uma taxa de falsos positivos líder no setor, contacte-nos para conhecer as nossas ofertas empresariais ou as bolsas de API para investigação.


Katherine Thai
Katherine ThaiCientista fundadora na área da investigação em IA

Katherine Thai é a investigadora científica fundadora na área da IA na Pangram Labs, uma startup especializada em deteção de IA. Concluiu o seu doutoramento em Ciências da Computação sob a orientação de Mohit Iyyer na Universidade de Massachusetts Amherst em dezembro de 2025, onde o seu trabalho se centrou na avaliação de modelos de linguagem de grande escala (LLMs) em tarefas relacionadas com a análise literária.

Mais de Katherine Thai

Leitura relacionada

Por que o Pangram tem um número mínimo de palavras?
Notícias

Por que o Pangram tem um número mínimo de palavras?

23 de maio de 2025
Como os alunos tentam evitar a deteção de IA
Notícias

Como os alunos tentam evitar a deteção de IA

24 de outubro de 2025
Trapaças além do ChatGPT: navegadores agenticos representam riscos para as universidades
Notícias

Trapaças além do ChatGPT: navegadores agenticos representam riscos para as universidades

22 de outubro de 2025
Checkfor.ai agora é Pangram Labs
Notícias

Checkfor.ai agora é Pangram Labs

8 de abril de 2024
Anunciando a identificação por IA: o Pangram consegue distinguir os diferentes LLMs uns dos outros
Atualizações do produto

Anunciando a identificação por IA: o Pangram consegue distinguir os diferentes LLMs uns dos outros

11 de fevereiro de 2025
O Pangram é o único detetor de IA que supera os especialistas humanos na identificação de conteúdo de IA.
Atualizações do produto

O Pangram é o único detetor de IA que supera os especialistas humanos na identificação de conteúdo de IA.

29 de janeiro de 2025