Annonce d'un nouveau partenariat avec Proofig ! En savoir plus

Comprendre la nouvelle législation européenne sur l'IA

Ashan Marla
23 mars 2024

Photo prise par Angel Bena.

La semaine dernière, le Parlement européen a adopté la loi sur l'intelligence artificielle (loi IA), un cadre complet que les États membres de l'UE devront suivre pour réglementer les produits et services liés à l'IA.

La loi sur l'IA vise à servir de législation en matière de sécurité des consommateurs, en adoptant une « approche fondée sur les risques » pour les produits ou services qui utilisent l'intelligence artificielle : plus une application d'IA est risquée, plus elle fait l'objet d'une surveillance étroite. Les niveaux de risque sont répartis en différentes catégories, notamment :

  • Les systèmes d'IA qui déploient « des techniques subliminales, manipulatrices ou trompeuses visant à déformer les comportements et à nuire à la prise de décisions éclairées », ou qui présentent un « risque évident pour les droits humains fondamentaux », seront considérés comme présentant un « risque inacceptable » et seront interdits.
  • Les systèmes d'IA considérés comme « à haut risque », tels que ceux utilisés dans les infrastructures critiques, l'éducation, les soins de santé, l'application de la loi, la gestion des frontières ou les élections, devront se conformer à des exigences strictes.
  • Les systèmes d'IA à usage général qui n'entrent pas dans les catégories à haut risque seront considérés comme présentant un risque limité et seront soumis à des obligations de transparence moins strictes. Les applications d'IA générative seront considérées comme des systèmes d'IA à usage général.

Les producteurs (comme Open AI/Google) et les utilisateurs (les entreprises qui utilisent ces applications) devront passer des tests d'exactitude et de transparence afin que les utilisateurs finaux (les consommateurs) sachent qu'ils interagissent avec l'IA. Les entreprises qui ne respectent pas ces nouvelles exigences s'exposent à des amendes pouvant atteindre 35 millions d'euros ou 7 % de leur chiffre d'affaires annuel mondial.

Qu'est-ce que cela signifie pour les plateformes en ligne ?

Toute entreprise, quel que soit son lieu d'implantation, qui compte des utilisateurs finaux dans l'UE et qui utilise des systèmes d'IA dans ses produits sera soumise à la loi sur l'IA. Bien que cette portée soit large et comporte une certaine ambiguïté, il est clair que les plateformes en ligne qui utilisent ou publient du contenu IA devront se conformer à ces nouvelles obligations réglementaires.

Avec l'augmentation du nombre de contenus générés par l'IA publiés sur de nombreuses plateformes de contenus générés par les utilisateurs, la plupart des sites en ligne (par exemple, les éditeurs, les places de marché et les réseaux sociaux) devront probablement mettre en place des contrôles de transparence et de modération, notamment :

  • Indiquer si le contenu généré ou publié sur la plateforme a été créé par une IA.
  • Concevoir la plateforme de manière à rejeter les soumissions illégales générées par l'IA.
  • Publication de résumés de données protégées par le droit d'auteur utilisées pour former des modèles internes.

L'étiquetage, et par procuration la détection, des contenus générés par l'IA sera désormais obligatoire si ces contenus sont diffusés sur des plateformes de contenu. Cela s'applique à toute forme de contenu : texte, audio, images et vidéos :

« Les fournisseurs de systèmes d'IA, y compris les systèmes d'IA à usage général, générant du contenu audio, image, vidéo ou texte synthétique, doivent veiller à ce que les résultats du système d'IA soient marqués dans un format lisible par machine et détectables comme étant générés ou manipulés artificiellement. »

Bien que nous soutenions l'intention législative de l'UE de promouvoir des systèmes d'IA sûrs, nous reconnaissons également que l'interprétation et le respect de cette loi peuvent être source de confusion pour les entreprises. Ces obligations peuvent sembler assez ambiguës, et la loi sur l'IA ne précise pas spécifiquement si les types de contenu secondaires (tels que les avis ou commentaires des utilisateurs) sont soumis à ces exigences, ni quels contrôles de conformité les entreprises devront mettre en place.

Comment les entreprises peuvent-elles garder une longueur d'avance sur la loi sur l'IA ?

La bonne nouvelle, c'est que les entreprises auront le temps de mettre au point des solutions pour se conformer à la loi. La loi devrait être adoptée d'ici mai et ses dispositions entreront en vigueur par étapes, bon nombre des exigences en matière de transparence ne s'appliquant qu'à partir de l'année prochaine.

Cela dit, nous pensons que les entreprises peuvent dès à présent prendre certaines mesures pour anticiper l'application de la loi. Elles devraient notamment chercher à développer :

  • Des directives et une gouvernance claires concernant le contenu généré par les utilisateurs.
  • Des workflows de modération de contenu plus efficaces pour identifier le contenu généré par l'IA.
  • Automatisations visant à empêcher la propagation de contenus générés par l'IA.

Certaines entreprises ont déjà pris des mesures : certaines plateformes telles que YouTube et Instagram demandent aux utilisateurs de signaler eux-mêmes lorsqu'ils publient du contenu « réaliste » généré par l'IA. Il n'est pas certain que ce « système de confiance » soit suffisant pour se conformer à la loi, mais cela montre clairement que les leaders du secteur prennent cette législation et la sécurité de l'IA au sérieux.

Chez Pangram Labs, nous travaillons d'arrache-pied pour mettre au point les meilleurs systèmes de détection basés sur l'IA afin que les entreprises puissent exploiter des plateformes en ligne sûres et responsables. Nous sommes encouragés par l'objectif de transparence sur Internet fixé par l'UE et nous sommes impatients de collaborer avec les chercheurs et les décideurs politiques pour concrétiser ces normes importantes.

Vous souhaitez nous contacter ? Envoyez-nous un e-mail à info@pangram.com!

Abonnez-vous à notre newsletter
Nous partageons chaque mois les dernières avancées de nos recherches en matière de détection de l'IA.