Anunciamos uma nova parceria com a Proofig! Saiba mais

O que acontece quando um detetor de IA comete um erro?

Max Spero
15 de maio de 2025

À medida que a inteligência artificial se torna cada vez mais difundida, os professores querem ser capazes de saber se os alunos estão a usar IA para escrever os seus trabalhos. Um detetor de IA para professores parece ser a solução natural, mas muitos estão hesitantes. O que acontece se o software cometer um erro?

Essa preocupação faz sentido. Até agora, os detetores de IA têm sido bastante pouco fiáveis. Vários estudos descobriram que essas ferramentas muitas vezes não reconhecem quando uma amostra de escrita foi produzida por IA e que um trapaceiro determinado pode enganá-las inserindo algumas paráfrases leves ou erros ortográficos. Esses falsos negativos são bastante problemáticos, pois permitem que algumas escritas geradas por computador passem despercebidas.

Mas mais preocupante é a elevada taxa de falsos positivos dos detectores precoces. Estes ocorrem quando um texto que foi realmente escrito por um humano é sinalizado como IA, levando a stress e punições injustificadas para alunos que não fizeram nada de errado, policiamento desnecessário por parte dos professores e uma quebra de confiança na escola.

O problema é particularmente grave entre os estudantes para os quais o inglês não é a primeira língua. Várias ferramentas de detecção de IA apresentam preconceito contra falantes não nativos. Um artigo de 2023 da Universidade de Stanford descobriu que vários detectores identificaram unanimemente (e falsamente) 1 em cada 5 ensaios escritos por um falante não nativo de inglês como gerado por IA. Quase todos eles foram erroneamente sinalizados por pelo menos um dos detectores.

Com que frequência os detetores de IA cometem erros?

Os detectores de IA mais populares reconhecem que cometem esse tipo de erro com bastante frequência. O TurnItIn, por exemplo, anuncia uma taxa de falsos positivos de cerca de 1 em 200, o que significa que, para cada 200 trabalhos que um professor analisa, o trabalho original de um aluno será falsamente marcado como gerado por IA. Outras ferramentas anunciam taxas de falsos positivos entre 1 em 500 e 1 em 100, enquanto estudos independentes descobriram que os números podem ser ainda maiores.

Por outro lado, a taxa de falsos positivos do Pangram é de apenas 1 em 10.000, medida através de testes em dezenas de milhões de documentos. O nosso modelo é particularmente fiável quando se trata de textos com mais de algumas centenas de palavras escritas em frases completas — exatamente o tipo de texto que os alunos costumam apresentar em trabalhos importantes.

Como os professores podem saber se um detetor de IA sinalizou erroneamente a redação de um aluno?

Quando um detetor de IA sinaliza um texto como gerado por IA, o professor tem algumas opções para ajudar a confirmar o resultado. Primeiro, deve simplesmente perguntar ao aluno sobre o uso da IA, abordando a conversa com humildade. Se o resultado for realmente um erro, o aluno poderá mostrar evidências do seu processo de escrita, como um histórico de revisões robusto no Google Docs ou cópias de rascunhos iniciais. Nesse caso, os professores podem reconhecer que provavelmente encontraram um falso positivo extremamente raro. O aluno também deve ser capaz de discutir o seu processo de escrita em detalhes. Essa conversa pode esclarecer uma compreensão profunda de um trabalho enviado, sugerindo que o aluno realmente o escreveu sozinho. Por outro lado, pode revelar que o aluno usou a IA de uma forma que não percebeu ser errada, confirmando as conclusões do detector.

Se o aluno continuar a insistir que não utilizou IA, mas não conseguir fornecer provas ou falar sobre o seu trabalho de forma coerente, ainda assim é aceitável dar-lhe o benefício da dúvida. Afinal, seria extremamente prejudicial se ele fosse punido por algo que não fez. Nesse caso, os professores podem instruir os alunos a manter registos do seu processo de escrita no futuro, o que ajudará a esclarecer quaisquer mal-entendidos futuros. Se o aluno estiver a mentir conscientemente sobre o uso de IA, provavelmente pensará duas vezes antes de fazer isso no futuro. Mas se o seu trabalho continuar a ser sinalizado por um detetor de IA preciso como o Pangram, provavelmente é hora de escalar a situação. As probabilidades de um erro já são pequenas; as probabilidades de vários erros são minúsculas.

Inscreva-se na nossa newsletter
Partilhamos atualizações mensais sobre a nossa investigação em deteção de IA.