Saiba imediatamente o que é publicado por pessoas e o que é gerado por IA no Twitter, LinkedIn, Substack e outras plataformas. Obtenha a nossa nova extensão para o Chrome.

Hoje, lançamos o Pangram 3.3. Tal como os modelos anteriores da série Pangram 3, o Pangram 3.3 baseia-se na arquitetura EditLens que apresentámos no nosso artigo da ICLR 2026.
Veja aqui a ficha do modelo Pangram 3.3
Nas últimas semanas, deve ter reparado que alguns textos dos últimos lançamentos da OpenAI e da Anthropic foram incorretamente identificados como sendo de autoria humana. Nesta atualização, focámo-nos em reduzir a nossa taxa de falsos negativos — ou seja, a frequência com que um modelo classifica incorretamente um texto gerado por IA como sendo de autoria humana — no que diz respeito ao conteúdo escrito por estes modelos recém-lançados.
Como sempre, estamos empenhados em manter a nossa taxa de falsos positivos líder no setor. Nunca lançaremos um modelo que reduza a nossa taxa global de falsos negativos à custa de classificar erroneamente mais texto escrito por humanos como sendo gerado por IA. Não deverá verificar qualquer aumento nos falsos positivos com o Pangram 3.3.
Para além de melhorar a taxa de falsos negativos em modelos como o Claude 4.7 e o GPT 5.4+, o Pangram 3.3 também apresenta um melhor desempenho em textos naturalistas, documentos longos e testes de escrita para falantes de inglês como segunda língua.
O Pangram 3.3 é muito mais eficaz do que a sua versão anterior na deteção de resultados gerados exclusivamente pela última geração de modelos de linguagem de grande escala (LLMs), incluindo o Claude 4.7 e o GPT 5.4+. Nas nossas avaliações internas, observamos uma melhoria de três vezes na deteção de texto gerado pelo GPT-5.5 Pro e uma melhoria superior a quatro vezes no caso do Claude Opus 4.7, em comparação com o Pangram 3.2.
O Pangram 3.3 apresenta uma melhoria significativa nas avaliações de humanização, detetando o dobro de textos humanizados comercialmente em comparação com o seu antecessor. O Pangram 3.3 também é mais eficaz na deteção de resultados de LLM gerados de forma adversária, em que os utilizadores instruem o LLM para contornar a deteção: observámos uma melhoria de três vezes no nosso conjunto de dados adversário interno em relação ao modelo Pangram anterior.
O nosso modelo anterior classificava por vezes erroneamente documentos mais longos gerados por IA (com mais de 2000 palavras) como «mistos», em particular ao rotular erroneamente segmentos no final do texto como «totalmente humanos». O Pangram 3.3 reduz significativamente este erro de classificação em textos sintéticos longos.
Embora a nossa taxa global de falsos positivos tenha diminuído devido a melhorias em domínios complexos, como a poesia, observámos um ligeiro aumento na taxa de falsos positivos no caso de textos escritos por humanos que foram traduzidos através do Google Translate. Sabemos que a tradução é um caso de utilização comum para os modelos de linguagem de grande escala (LLMs) e estamos a testar formas de modelar e apresentar os resultados relativos a textos traduzidos por IA em futuros modelos.
A utilização de agentes disparou nos últimos seis meses. Começamos a ver os processos de redação que envolvem humanos e IA a evoluir para um modelo colaborativo, em que várias rondas de iteração entrelaçam texto escrito por humanos e texto gerado por IA dentro de um documento. Um dos nossos principais focos é melhorar a nossa modelação deste tipo de documento co-escrito. Estamos entusiasmados por desenvolver o EditLens, a fim de lhe proporcionar os resultados mais precisos em textos de autoria mista, bem como para permitir que os utilizadores compreendam o que significa um texto ser «ligeiramente» ou «moderadamente» assistido por IA.
Tal como aconteceu com os nossos dois modelos anteriores, pode sempre consultar o desempenho do modelo atual em diferentes domínios e conjuntos de dados na ficha do modelo.

Katherine Thai é a investigadora científica fundadora na área da IA na Pangram Labs, uma startup especializada em deteção de IA. Concluiu o seu doutoramento em Ciências da Computação sob a orientação de Mohit Iyyer na Universidade de Massachusetts Amherst em dezembro de 2025, onde o seu trabalho se centrou na avaliação de modelos de linguagem de grande escala (LLMs) em tarefas relacionadas com a análise literária.






