Saiba imediatamente o que é publicado por pessoas e o que é gerado por IA no Twitter, LinkedIn, Substack e outras plataformas. Obtenha a nossa nova extensão para o Chrome.
Para onde quer que os utilizadores da Internet se virem, são confrontados com textos, vídeos e imagens gerados por IA, muitos dos quais indetetáveis. A inviolabilidade e a confiança dos espaços online estão a desmoronar-se sob o peso do conteúdo gerado por IA. O decreto presidencial de Biden sobre segurança da IA e a Lei da IA da União Europeia defendiam a rotulagem adequada dos resultados da IA, também conhecida como «marcação de água», mas estas regulamentações foram revogadas em 2025. Apesar da ausência de uma estratégia nacional ou internacional, muitas empresas de IA continuam a desenvolver e a implementar sinais de «marca d'água» nos seus conteúdos. Embora este seja um passo na direção certa para reconquistar a confiança do público e proteger os consumidores, a marca d'água é um método imperfeito que é facilmente contornado.
A seguir, vamos explorar como funcionam as marcas de água, por que razão falham e por que razão os bons métodos de deteção baseados em IA têm de se basear num tipo específico de reconhecimento de padrões.
Para os seres humanos, a marca d'água gerada por IA é invisível. Ao contrário das marcas d'água tradicionais, que exibem o nome ou o logótipo de uma empresa, as marcas d'água geradas por IA são incorporadas de forma impercetível no texto, nas imagens e nos vídeos produzidos por um modelo de IA.
O Google utiliza o SynthID, que incorpora variações subtis nos resultados do Gemini, detetáveis pela própria tecnologia do Google. No caso do texto, o SynthID altera os índices de previsibilidade de determinadas palavras de acordo com uma função pseudoaleatória, levando o Gemini a dar preferência à utilização de certas palavras. Assim, quando o texto é reintroduzido no modelo, este consegue reconhecer o seu próprio trabalho com base na análise da frequência das palavras.
De acordo com a legislação dos EUA, o conteúdo gerado inteiramente por IA não pode ser protegido por direitos de autor; por isso, é do interesse das empresas de IA desenvolver um método para determinar a proveniência do conteúdo dos seus modelos. Dessa forma, quando o texto, a imagem ou o vídeo gerado por IA circular na Internet, haverá uma assinatura que permita identificar a sua origem.
Reivindicar a autoria das criações dos seus modelos não é a única razão pela qual as grandes empresas tecnológicas têm tanto interesse na proveniência. Enquanto os utilizadores da Internet ficam boquiabertos perante a pilha interminável de lixo gerado pela IA que lhes é entregue diariamente à porta de casa, os principais desenvolvedores de IA temem os riscos legais, de reputação e de segurança que lhes possam surgir. Agentes mal-intencionados utilizam ferramentas de IA para criar deepfakes ou espalhar desinformação, ameaçando a segurança global. Para evitar uma potencial repressão sob a forma de mandatos governamentais rigorosos, as grandes empresas tecnológicas pretendem antecipar-se aos acontecimentos, criando ferramentas de autorregulação. Se os seus modelos conseguem descodificar conteúdos com a mesma facilidade com que os geram, por que razão haveria qualquer entidade governamental de precisar de monitorizar o seu desenvolvimento?
Se todas as pessoas no mundo prometessem nunca alterar conteúdos gerados por IA, talvez a marca d'água funcionasse. Mas, neste mundo, os malfeitores podem facilmente alterar conteúdos gerados por IA de forma a ocultar a sua origem. Ferramentas de parafraseamento secundárias, como os humanizadores, podem facilmente alterar palavras ou a estrutura das frases, inserindo erros ou texto sem sentido numa tentativa de disfarçar o conteúdo gerado por IA. Infelizmente, por vezes, este disfarce frágil funciona. A Pangram Labs testou 19 humanizadores de IA diferentes e descobriu que muitos conseguiram remover com sucesso as marcas de água do texto.
Os malfeitores também podem «branquear» um texto submetendo-o a várias traduções diferentes antes de o traduzir de volta para inglês, removendo marcas de água e criando um texto «limpo» que não seja detetado pelos sistemas de descodificação das empresas de IA.
As marcas de água são frágeis e facilmente falsificáveis, o que as torna inúteis. A sua deteção requer outras ferramentas.
As empresas responsáveis pelo conteúdo de má qualidade gerado por IA não podem ser as únicas responsáveis por identificar quando um determinado conteúdo lhes pertence. A marca d'água requer a cooperação dos programadores de IA e pode ser removida num piscar de olhos.
Mas quando um método falha, outro prevalece. Um método denominado «reconhecimento estatístico independente de padrões» é muito mais robusto e fiável para identificar conteúdos gerados por IA, razão pela qual o utilizamos aqui na Pangram. Não procuramos um código oculto incorporado no texto gerado por IA. Em vez disso, os modelos da Pangram analisam o ADN linguístico fundamental, a previsibilidade estrutural e os padrões sintáticos de qualquer texto, garantindo uma deteção de IA com 99,98% de precisão. Detetores avançados como o Pangram não precisam de marcas de água para funcionar. São treinados em conjuntos de dados diversificados através de um método chamado «mineração de negativos difíceis», no qual os detetores são alimentados com exemplos difíceis de detetar. O Pangram consegue sinalizar conteúdo gerado por IA a partir de modelos de código aberto ou ainda não lançados, identificar texto modificado de forma maliciosa e oferecer uma análise linha a linha em textos mistos, gerados por IA e escritos por humanos.
As empresas de IA não se tornarão as defensoras da autenticidade na Internet. A marca d'água é uma estratégia que não resiste a agentes mal-intencionados, e a deteção independente é a única solução real.
Os nossos modelos já estão a ser utilizados na prática. Plataformas que dependem da confiança dos utilizadores, como o Quora, integraram a deteção ao nível da API nos seus serviços, utilizando o Pangram para moderar milhões de publicações e sinalizar conteúdos gerados por IA.
A verdadeira autenticidade e transparência na Internet só podem ser alcançadas através de uma estrutura baseada na deteção. Detetores fiáveis, independentes e de última geração, como o Pangram, estão a ajudar a criar mecanismos de controlo e equilíbrio para toda a Internet.
Quer seja um académico, um profissional ou um programador de TI: a marca d'água não é a solução milagrosa. A proteção contra a desonestidade académica ou o conteúdo de spam gerado por IA requer deteção. Para verificar com precisão a origem de ensaios, e-mails e publicações nas redes sociais, as organizações devem recorrer a ferramentas de deteção que analisem o texto, em vez de utilizarem marcas d'água.
Não confie nas marcas de água para proteger a sua plataforma. Identifique instantaneamente conteúdos alterados gerados por IA com o Pangram.






