Annonce d'un nouveau partenariat avec Proofig ! En savoir plus
Image par Meta
En réponse aux nouvelles réglementations sur l'IA adoptées en Europe, nous avons publié notre analyse dans laquelle nous prédisions que les grandes entreprises commenceraient à prendre des mesures en faveur de la transparence de l'IA. Le mois dernier, nous avons commencé à voir cette prédiction se réaliser : Meta a annoncé dans un blog qu'elle « commencerait à étiqueter un plus large éventail de contenus vidéo, audio et image comme « Réalisé avec l'IA ».
Cette annonce est, espérons-le, le signe que d'autres entreprises commenceront à prendre conscience du risque que représente le contenu généré par l'IA, notamment en ce qui concerne la désinformation et les images et vidéos deepfake. Dans son message, l'entreprise a annoncé plusieurs mesures qu'elle prévoit de prendre :
Meta prévoit de développer des outils internes permettant d'identifier à grande échelle les contenus générés par l'IA lorsqu'ils apparaissent sur Facebook, Instagram et Threads.
Le contenu à étiqueter comprendra du contenu généré par l'IA provenant de Google, OpenAI, Microsoft, Adobe, Midjourney, etc.
Cela permettra aux utilisateurs de divulguer volontairement lorsqu'ils téléchargent du contenu généré par l'IA, tout en pénalisant les comptes qui ne divulguent pas le contenu IA partagé.
Ces mesures constituent un excellent début et ont été proposées par un groupe mixte de parties prenantes par l'intermédiaire du comité de surveillance du contenu de Meta. Après avoir consulté des décideurs politiques internationaux et interrogé plus de 23 000 utilisateurs, Meta a constaté qu'une majorité écrasante (82 %) était favorable à ces divulgations relatives à l'IA, en particulier pour les « contenus qui montrent des personnes disant des choses qu'elles n'ont pas dites ».
À l'approche des élections de 2024, il est clair que Meta a tiré les leçons des élections américaines de 2016 et 2020 et investit dans les systèmes appropriés pour mieux protéger ses utilisateurs contre la vague croissante de désinformation amplifiée par l'IA. Ce n'est pas un hasard si Meta cherche à mettre en œuvre ces politiques avant l'entrée en vigueur de la loi européenne sur l'IA en mai.
Les décisions et le leadership de Meta auront sans aucun doute une influence sur la manière dont les autres entreprises commenceront à réfléchir aux risques liés à leurs propres plateformes. Lors d'une table ronde au Forum économique mondial, le président des affaires internationales de Meta a déjà qualifié la détection des contenus générés artificiellement de « tâche la plus urgente » à laquelle est confrontée l'industrie technologique aujourd'hui.
Comment les autres entreprises peuvent-elles suivre ces recommandations afin de protéger leurs plateformes contre les abus liés à la désinformation tout en restant conformes à la nouvelle réglementation européenne ? Voici quelques idées :
Pangram Labs développe les meilleurs systèmes de détection basés sur l'IA afin que les entreprises puissent exploiter des plateformes en ligne sûres et responsables. Si vous souhaitez prendre des mesures proactives et montrer la voie en matière d'intégrité des plateformes et de conformité réglementaire, contactez-nous à l'adresse info@pangram.com!
