Anunciamos uma nova parceria com a Proofig! Saiba mais
Foto de Angel Bena.
Na semana passada, o Parlamento Europeu aprovou a Lei da Inteligência Artificial (Lei IA), um quadro abrangente a ser seguido pelos Estados-Membros da UE na regulamentação de produtos e serviços de IA.
A Lei de IA tem como objetivo servir como legislação de segurança do consumidor, adotando uma «abordagem baseada no risco» para produtos ou serviços que utilizam inteligência artificial — quanto mais arriscada for uma aplicação de IA, maior será o escrutínio a que será submetida. Os níveis de risco são divididos em diferentes categorias, incluindo:
Tanto os produtores (como a Open AI/Google) quanto os utilizadores (empresas que consomem essas aplicações) serão obrigados a passar por testes de precisão e transparência, para que os utilizadores finais (consumidores) estejam cientes de que estão a interagir com IA. As empresas que não conseguirem cumprir esses novos requisitos estarão sujeitas a multas de até € 35 milhões ou 7% de sua receita anual global.
Qualquer empresa, independentemente da sua localização, que tenha utilizadores finais na UE e utilize sistemas de IA nos seus produtos estará sujeita à Lei da IA. Embora se trate de um âmbito alargado e com alguma ambiguidade, é evidente que as plataformas online que utilizam ou publicam conteúdos de IA terão de cumprir estas novas obrigações regulamentares.
Com muitas plataformas de conteúdo gerado por utilizadores a registarem um aumento na publicação de conteúdo gerado por IA, a maioria dos sites online (por exemplo, editoras, mercados e sites de redes sociais) provavelmente terá de criar alguns controlos de transparência e moderação, incluindo:
A identificação e, por extensão, a deteção de conteúdo gerado por IA passarão a ser obrigatórias caso tal conteúdo seja divulgado em plataformas de conteúdo. Isso se aplica a qualquer tipo de conteúdo — texto, áudio, imagens e vídeos:
«Os fornecedores de sistemas de IA, incluindo sistemas de IA de uso geral, que geram conteúdo sintético de áudio, imagem, vídeo ou texto, devem garantir que os resultados do sistema de IA sejam marcados num formato legível por máquina e detectáveis como artificialmente gerados ou manipulados.»
Embora apoiemos a intenção legislativa da UE de promover sistemas de IA seguros, também reconhecemos que pode ser confuso para as empresas interpretar e cumprir esta lei. Estas obrigações podem parecer bastante ambíguas, e a Lei da IA não especifica se os tipos secundários de conteúdo (como avaliações ou comentários de utilizadores) estão sujeitos a estes requisitos, nem quais as verificações de conformidade que as empresas terão de incorporar.
A boa notícia é que as empresas terão tempo para desenvolver soluções que permitam o cumprimento da lei. A lei deverá entrar em vigor em maio, e as suas disposições começarão a ser aplicadas em etapas, com muitos dos requisitos de transparência a serem aplicados apenas a partir do ano que vem.
Dito isto, acreditamos que existem certas medidas que as empresas podem tomar agora para se anteciparem a qualquer aplicação da lei. Notavelmente, as empresas devem procurar desenvolver:
Já estamos a ver algumas empresas a tomar medidas — algumas plataformas, como o YouTube e o Instagram, estão a pedir aos utilizadores que informem quando carregam conteúdo «realista» gerado por IA. Não está claro se esse «sistema de confiança» será suficiente para cumprir a lei, mas é um forte sinal de que os líderes do setor estão a levar a sério essa legislação e a segurança da IA.
Na Pangram Labs, estamos a trabalhar arduamente para construir os melhores sistemas de deteção de IA, para que as empresas possam operar plataformas online seguras e responsáveis. Sentimo-nos encorajados pelo objetivo da UE de transparência na Internet e estamos ansiosos por trabalhar com investigadores e decisores políticos para concretizar estas importantes normas.
Quer entrar em contacto connosco? Envie-nos um e-mail para info@pangram.com!
