Annonce d'un nouveau partenariat avec Proofig ! En savoir plus
REMARQUE : Nous avons changé notre nom pour Pangram Labs ! Consultez notre article de blog pour plus de détails.
Aujourd'hui, l'administration Biden a publié de nouvelles normes en matière de sûreté et de sécurité de l'IA, notamment cette directive sur la détection de contenu généré par l'IA :
Le ministère du Commerce élaborera des lignes directrices pour l'authentification et le tatouage numérique des contenus afin d'identifier clairement les contenus générés par l'IA. Les agences fédérales utiliseront ces outils pour permettre aux Américains de savoir facilement que les communications qu'ils reçoivent de leur gouvernement sont authentiques, et montreront ainsi l'exemple au secteur privé et aux gouvernements du monde entier.
Joe Biden, tiré de ai.gov.
Checkfor.ai soutient pleinement l'engagement de l'administration Biden en faveur d'un déploiement sûr et responsable des grands modèles linguistiques. Nous pensons que l'élaboration de lignes directrices et de politiques relatives à l'authentification du contenu généré par l'IA est une étape importante dans la bonne direction pour la sécurité de l'IA et s'inscrit dans notre mission de protection de l'internet contre le spam et autres contenus malveillants générés par les grands modèles linguistiques. Le monde sera meilleur, tant pour les consommateurs que pour les utilisateurs de technologies d'IA, si nous, en tant que société, investissons davantage dans la détection des contenus générés par l'IA. Aujourd'hui, nous souhaitons publier une déclaration sur notre position en tant qu'entreprise en matière d'authentification, de tatouage numérique et de détection des contenus.
Chez Checkfor.ai, nous travaillons d'arrache-pied pour mettre au point des systèmes de détection IA fiables afin que les modèles linguistiques de nouvelle génération puissent être déployés de manière sûre et productive. Nous sommes ravis de voir l'engagement de l'administration Biden à différencier les contenus générés par l'homme et ceux générés par l'IA, et nous sommes impatients de travailler avec les chercheurs et les décideurs politiques pour élaborer ces normes importantes.
