Saiba imediatamente o que é publicado por pessoas e o que é gerado por IA no Twitter, LinkedIn, Substack e outras plataformas. Obtenha a nossa nova extensão para o Chrome.
Os modelos de IA geram uma quantidade incontável de texto que satura diariamente os nossos sites, feeds das redes sociais e jornais. A nossa nova era da Internet é marcada pela proeminência (e domínio) do conteúdo gerado por IA. Novos modelos de raciocínio que produzem resultados mais sofisticados e ferramentas de humanização que alteram o texto gerado por IA para contornar a deteção estão a esbater a linha divisória entre a criação humana original e a geração por IA. Esta crescente incerteza leva muitos a questionar-se: será apenas uma questão de tempo até que a IA se torne completamente indetetável? Enquanto o texto gerado por IA e as ferramentas de deteção de IA continuarem a jogar ao gato e ao rato – com cada nova fronteira no desenvolvimento da IA a ser acompanhada por uma nova fronteira na deteção de IA –, podemos ter a certeza de que a resposta é não. Abaixo estão algumas previsões sobre como o conteúdo de IA – e as ferramentas que usamos para o verificar – irá evoluir nos próximos cinco anos.
Os «humanizadores», que visam tornar indetetável o texto gerado por IA, já recorrem a estratégias previsíveis e padrões repetitivos nas suas abordagens. Os investigadores da Pangram testaram 19 humanizadores diferentes para compreender o funcionamento dos seus programas. Em última análise, as suas alegações surpreendentes e quase mágicas de contornar a deteção eram pouco mais do que um estratagema publicitário apelativo. Estas ferramentas limitam-se a inserir frases estranhas ou sem sentido e a degradar a qualidade do texto para «esconder» as suas origens na IA. Aos olhos humanos, este texto pode parecer apenas estranho, mas não engana um detetor de IA como o Pangram. Alguns padrões e características de texto identificativos, específicos dos modelos de IA, podem ser eliminados por um humanizador. Mas detetores como o Pangram alimentam propositadamente os seus modelos de deteção de IA com exemplos difíceis de texto gerado por IA e têm uma taxa de sucesso superior a 90% na identificação de texto alterado por um humanizador como sendo gerado por IA. Utilizando um método a que chamamos «mineração de negativos difíceis», treinamos os nossos modelos em casos desafiantes — como texto gerado por IA ofuscado por um humanizador — para aperfeiçoar a precisão dos nossos modelos de deteção.
À medida que aplicações como o Grammarly e até mesmo o Gmail oferecem assistência por IA para a escrita, o futuro do conteúdo gerado por IA tornar-se-á mais complexo. Nos próximos cinco anos, cada vez mais conteúdo será híbrido, ou seja, assistido por IA, em vez de ser inteiramente escrito por humanos ou totalmente gerado por IA. Um estudo da Ahrefs realizado em abril de 2025 revelou que 71,2% das novas páginas web continham uma mistura de conteúdo gerado por IA e escrito por humanos. Este desenvolvimento exigirá ferramentas treinadas para captar nuances, uma vez que saber até que ponto houve assistência da IA se tornará mais importante do que saber se algo foi assistido pela IA. A deteção binária «bot ou não» utilizada em modelos preliminares de deteção de IA precisa de mudar para fornecer a educadores, investigadores, jornalistas e a quem mais utilize ferramentas de deteção de IA uma análise mais moderna e abrangente de como a IA esteve envolvida na criação de um texto. Mesmo o conteúdo «misto», criado por IA e por humanos, não é uma categoria suficiente, uma vez que a diferença entre corrigir a gramática com inteligência artificial e gerar argumentos com inteligência artificial é enorme. Modelos de deteção de IA como o Pangram categorizam o texto num espectro, desde totalmente escrito por humanos até totalmente gerado por IA, com níveis de assistência da IA ligeiros e intensos no meio. O modelo mais recente divide documentos longos, classificando segmentos individuais de texto nestas categorias para definir a fronteira precisa entre texto gerado por humanos e texto gerado por IA.
Os modelos de IA têm tendência a privilegiar determinadas palavras ou estruturas de frases. No entanto, os agentes maliciosos que procuram ocultar a origem do texto gerado por IA podem facilmente alterar o seu conteúdo para remover esses sinais óbvios e induzir o público em erro. A deteção estatística de padrões substituirá a deteção de padrões simples, que se baseia na frequência de determinadas palavras ou estruturas de frases para determinar se algo foi gerado por IA. Nos próximos cinco anos, a defesa definitiva contra conteúdos dissimulados gerados por IA serão modelos de deteção treinados com base no funcionamento matemático dos LLMs, aprofundando-se nos seus processos para compreender e aprender o seu produto. Este tipo de ferramentas de deteção de IA apresenta a «detecção zero-shot», o que significa que podem sinalizar conteúdos gerados por IA a partir de modelos fora dos seus dados de treino. À medida que as empresas de IA se desenvolvem rapidamente, esta funcionalidade de deteção estará à altura do desafio.
As APIs de deteção precisa tornar-se-ão o novo «antivírus» num mundo de conteúdos gerados por IA.
As fábricas de conteúdo produzem dezenas de milhares de artigos gerados por IA todos os dias, inundando os nossos ecrãs – e a Internet como um todo – com páginas e páginas de lixo gerado por IA. Todo este ruído degrada a qualidade das plataformas que dependem de materiais escritos para partilhar informação. Uma dessas plataformas, o Quora, recorre à deteção por IA, criando uma estrutura de verificação exaustiva em todas as suas APIs que protege a integridade e a qualidade do seu conteúdo. À medida que os utilizadores de plataformas como o X, o Instagram e o Reddit são inundados por conteúdo gerado por IA, estas empresas online terão cada vez mais de recorrer a APIs de deteção de IA para limpar as suas páginas web e restaurar a confiança dos utilizadores. Esta elevada saturação de IA também deixa os cientistas de dados e os engenheiros de aprendizagem automática em pânico, uma vez que os modelos de IA dependem de conteúdo público para o seu treino. Os investigadores preocupam-se com o colapso dos modelos quando a IA é treinada com conteúdo gerado por IA, e a única ferramenta de prevenção fiável são as APIs de deteção que conseguem filtrar o conteúdo dos seus pipelines de scraping. Esta nova camada de segurança será obrigatória tanto para quem procura eliminar o lixo das suas plataformas como para quem pretende desenvolver modelos de IA.
À medida que as ferramentas de IA evoluem, o mesmo acontecerá com a deteção de IA. Os modelos de IA permanecerão sempre distintos dos seres humanos, uma vez que os algoritmos não conseguem igualar a experiência e a emoção que tornam a nossa existência tão única. Da mesma forma, os textos gerados por IA nunca irão igualar os textos escritos por seres humanos. A IA não se tornará indetetável; pelo contrário, as nossas ferramentas para a detetar irão evoluir e continuar a preservar o valor humano.
Prepare a sua plataforma para cada nova onda de conteúdo gerado por IA. Experimente hoje mesmo a detecção avançada de IA da Pangram.




