Anunciamos uma nova parceria com a Proofig! Saiba mais

Compreender a nova lei da UE sobre IA

Ashan Marla
23 de março de 2024

Foto de Angel Bena.

Na semana passada, o Parlamento Europeu aprovou a Lei da Inteligência Artificial (Lei IA), um quadro abrangente a ser seguido pelos Estados-Membros da UE na regulamentação de produtos e serviços de IA.

A Lei de IA tem como objetivo servir como legislação de segurança do consumidor, adotando uma «abordagem baseada no risco» para produtos ou serviços que utilizam inteligência artificial — quanto mais arriscada for uma aplicação de IA, maior será o escrutínio a que será submetida. Os níveis de risco são divididos em diferentes categorias, incluindo:

  • Os sistemas de IA que utilizam «técnicas subliminares, manipuladoras ou enganosas para distorcer o comportamento e prejudicar a tomada de decisões informadas», ou que representam um «risco claro para os direitos humanos fundamentais», serão considerados «risco inaceitável» e serão proibidos.
  • Os sistemas de IA considerados de «alto risco», como os utilizados em infraestruturas críticas, educação, saúde, aplicação da lei, gestão de fronteiras ou eleições, terão de cumprir requisitos rigorosos.
  • Os sistemas de IA de uso geral que não se enquadram nas categorias de alto risco serão considerados de risco limitado e estão sujeitos a obrigações de transparência mais leves. As aplicações de IA generativa serão consideradas sistemas de IA de uso geral.

Tanto os produtores (como a Open AI/Google) quanto os utilizadores (empresas que consomem essas aplicações) serão obrigados a passar por testes de precisão e transparência, para que os utilizadores finais (consumidores) estejam cientes de que estão a interagir com IA. As empresas que não conseguirem cumprir esses novos requisitos estarão sujeitas a multas de até € 35 milhões ou 7% de sua receita anual global.

O que isso significa para as plataformas online?

Qualquer empresa, independentemente da sua localização, que tenha utilizadores finais na UE e utilize sistemas de IA nos seus produtos estará sujeita à Lei da IA. Embora se trate de um âmbito alargado e com alguma ambiguidade, é evidente que as plataformas online que utilizam ou publicam conteúdos de IA terão de cumprir estas novas obrigações regulamentares.

Com muitas plataformas de conteúdo gerado por utilizadores a registarem um aumento na publicação de conteúdo gerado por IA, a maioria dos sites online (por exemplo, editoras, mercados e sites de redes sociais) provavelmente terá de criar alguns controlos de transparência e moderação, incluindo:

  • Divulgar se o conteúdo gerado ou publicado na plataforma foi criado por IA.
  • Projetar a plataforma para rejeitar envios ilegais gerados por IA.
  • Publicação de resumos de dados protegidos por direitos autorais usados para treinar modelos internos.

A identificação e, por extensão, a deteção de conteúdo gerado por IA passarão a ser obrigatórias caso tal conteúdo seja divulgado em plataformas de conteúdo. Isso se aplica a qualquer tipo de conteúdo — texto, áudio, imagens e vídeos:

«Os fornecedores de sistemas de IA, incluindo sistemas de IA de uso geral, que geram conteúdo sintético de áudio, imagem, vídeo ou texto, devem garantir que os resultados do sistema de IA sejam marcados num formato legível por máquina e detectáveis como artificialmente gerados ou manipulados.»

Embora apoiemos a intenção legislativa da UE de promover sistemas de IA seguros, também reconhecemos que pode ser confuso para as empresas interpretar e cumprir esta lei. Estas obrigações podem parecer bastante ambíguas, e a Lei da IA não especifica se os tipos secundários de conteúdo (como avaliações ou comentários de utilizadores) estão sujeitos a estes requisitos, nem quais as verificações de conformidade que as empresas terão de incorporar.

Como as empresas podem se antecipar à Lei de IA?

A boa notícia é que as empresas terão tempo para desenvolver soluções que permitam o cumprimento da lei. A lei deverá entrar em vigor em maio, e as suas disposições começarão a ser aplicadas em etapas, com muitos dos requisitos de transparência a serem aplicados apenas a partir do ano que vem.

Dito isto, acreditamos que existem certas medidas que as empresas podem tomar agora para se anteciparem a qualquer aplicação da lei. Notavelmente, as empresas devem procurar desenvolver:

  • Diretrizes claras e governança em torno do conteúdo gerado pelo utilizador.
  • Fluxos de trabalho de moderação de conteúdo mais eficientes para identificar conteúdo gerado por IA.
  • Automações para impedir a disseminação de conteúdo gerado por IA.

Já estamos a ver algumas empresas a tomar medidas — algumas plataformas, como o YouTube e o Instagram, estão a pedir aos utilizadores que informem quando carregam conteúdo «realista» gerado por IA. Não está claro se esse «sistema de confiança» será suficiente para cumprir a lei, mas é um forte sinal de que os líderes do setor estão a levar a sério essa legislação e a segurança da IA.

Na Pangram Labs, estamos a trabalhar arduamente para construir os melhores sistemas de deteção de IA, para que as empresas possam operar plataformas online seguras e responsáveis. Sentimo-nos encorajados pelo objetivo da UE de transparência na Internet e estamos ansiosos por trabalhar com investigadores e decisores políticos para concretizar estas importantes normas.

Quer entrar em contacto connosco? Envie-nos um e-mail para info@pangram.com!

Inscreva-se na nossa newsletter
Partilhamos atualizações mensais sobre a nossa investigação em deteção de IA.