Anunciamos uma nova parceria com a Proofig! Saiba mais

Meta começará a identificar conteúdo gerado por IA

Ashan Marla
14 de maio de 2024

Imagem por Meta

Visão geral

Em resposta às novas regulamentações sobre IA aprovadas na Europa, publicámos a nossa análise, na qual prevíamos que as empresas líderes começariam a tomar medidas em relação à transparência da IA. No mês passado, começámos a ver essa previsão se concretizar — a Meta anunciou num blogue que «começará a rotular uma gama mais ampla de conteúdos de vídeo, áudio e imagem como "Feito com IA"».

Esperamos que este anúncio seja um sinal de que outras empresas começarão a perceber o risco que o conteúdo gerado por IA representa, especialmente no que se refere a desinformação e imagens e vídeos falsificados. Na publicação, a empresa anunciou várias medidas que planeia tomar:

A Meta está a planear criar ferramentas internas para identificar conteúdo gerado por IA em grande escala quando ele aparecer no Facebook, Instagram e Threads.

O conteúdo a ser rotulado incluirá conteúdo gerado por IA do Google, OpenAI, Microsoft, Adobe, Midjourney e outros.

Isso adicionará uma forma de os utilizadores divulgarem voluntariamente quando carregam conteúdo gerado por IA, ao mesmo tempo que penalizará as contas que não divulgarem o conteúdo de IA partilhado.

Essas ações são um ótimo começo e foram informadas por um grupo misto de partes interessadas por meio do conselho de supervisão de conteúdo da Meta. Após concluir consultas com formuladores de políticas internacionais e pesquisar mais de 23 mil utilizadores, a Meta descobriu que uma maioria esmagadora (82%) era a favor dessas divulgações de IA, especialmente para «conteúdo que retrata pessoas a dizer coisas que elas não disseram».

Afastando o zoom

Antes das eleições de 2024, fica claro que a Meta aprendeu as lições certas com as eleições americanas de 2016 e 2020 e está a investir nos sistemas certos para proteger melhor os seus utilizadores contra uma onda crescente de desinformação ampliada pela IA. Também não é coincidência que a Meta esteja a procurar implementar essas políticas antes da entrada em vigor da Lei de IA da UE, em maio.

As decisões e a liderança da Meta irão certamente influenciar a forma como outras empresas começam a pensar sobre os riscos das suas próprias plataformas. Num painel no Fórum Económico Mundial, o presidente de Assuntos Globais da Meta já classificou o esforço para detetar conteúdo gerado artificialmente como «a tarefa mais urgente» que a indústria tecnológica enfrenta atualmente.

Então, como outras empresas podem seguir essa orientação e proteger as suas plataformas contra o abuso de desinformação, mantendo-se em conformidade com a nova regulamentação da UE? Aqui estão algumas ideias:

  • A liderança da plataforma deve definir políticas de conteúdo em conformidade com a regulamentação para apoiar a identificação e a adjudicação de conteúdo gerado por IA.
  • Desenvolver funcionalidades do produto que permitam aos utilizadores divulgar conteúdos gerados por IA ou, no mínimo, sinalizar conteúdos de IA para mitigar a sua disseminação e ameaça a outros utilizadores.
  • Use os produtos de detecção de conteúdo gerado por IA da Pangram Labs para sinalizar proativamente o conteúdo gerado por IA para revisão.

A Pangram Labs está a desenvolver os melhores sistemas de deteção de IA para que as empresas possam operar plataformas online seguras e responsáveis. Se pretende tomar medidas proativas e liderar o caminho em termos de integridade da plataforma e conformidade regulamentar, entre em contacto connosco através do e-mail info@pangram.com!

Inscreva-se na nossa newsletter
Partilhamos atualizações mensais sobre a nossa investigação em deteção de IA.