Anunciamos uma nova parceria com a Proofig! Saiba mais
Imagem por Meta
Em resposta às novas regulamentações sobre IA aprovadas na Europa, publicámos a nossa análise, na qual prevíamos que as empresas líderes começariam a tomar medidas em relação à transparência da IA. No mês passado, começámos a ver essa previsão se concretizar — a Meta anunciou num blogue que «começará a rotular uma gama mais ampla de conteúdos de vídeo, áudio e imagem como "Feito com IA"».
Esperamos que este anúncio seja um sinal de que outras empresas começarão a perceber o risco que o conteúdo gerado por IA representa, especialmente no que se refere a desinformação e imagens e vídeos falsificados. Na publicação, a empresa anunciou várias medidas que planeia tomar:
A Meta está a planear criar ferramentas internas para identificar conteúdo gerado por IA em grande escala quando ele aparecer no Facebook, Instagram e Threads.
O conteúdo a ser rotulado incluirá conteúdo gerado por IA do Google, OpenAI, Microsoft, Adobe, Midjourney e outros.
Isso adicionará uma forma de os utilizadores divulgarem voluntariamente quando carregam conteúdo gerado por IA, ao mesmo tempo que penalizará as contas que não divulgarem o conteúdo de IA partilhado.
Essas ações são um ótimo começo e foram informadas por um grupo misto de partes interessadas por meio do conselho de supervisão de conteúdo da Meta. Após concluir consultas com formuladores de políticas internacionais e pesquisar mais de 23 mil utilizadores, a Meta descobriu que uma maioria esmagadora (82%) era a favor dessas divulgações de IA, especialmente para «conteúdo que retrata pessoas a dizer coisas que elas não disseram».
Antes das eleições de 2024, fica claro que a Meta aprendeu as lições certas com as eleições americanas de 2016 e 2020 e está a investir nos sistemas certos para proteger melhor os seus utilizadores contra uma onda crescente de desinformação ampliada pela IA. Também não é coincidência que a Meta esteja a procurar implementar essas políticas antes da entrada em vigor da Lei de IA da UE, em maio.
As decisões e a liderança da Meta irão certamente influenciar a forma como outras empresas começam a pensar sobre os riscos das suas próprias plataformas. Num painel no Fórum Económico Mundial, o presidente de Assuntos Globais da Meta já classificou o esforço para detetar conteúdo gerado artificialmente como «a tarefa mais urgente» que a indústria tecnológica enfrenta atualmente.
Então, como outras empresas podem seguir essa orientação e proteger as suas plataformas contra o abuso de desinformação, mantendo-se em conformidade com a nova regulamentação da UE? Aqui estão algumas ideias:
A Pangram Labs está a desenvolver os melhores sistemas de deteção de IA para que as empresas possam operar plataformas online seguras e responsáveis. Se pretende tomar medidas proativas e liderar o caminho em termos de integridade da plataforma e conformidade regulamentar, entre em contacto connosco através do e-mail info@pangram.com!
