Annonce d'un nouveau partenariat avec Proofig ! En savoir plus

Rendre votre entreprise compatible avec le LLM et l'IA générique

Max Spero et Theodoros Evgeniou
30 janvier 2024

On peut dire que « la personnalité de l'année 2023 » est l'IA. Nous avons tous été surpris par la rapidité des innovations et les capacités des grands modèles linguistiques (LLM) et, plus généralement, de l'IA générative (GenAI). Dans le même temps, nombreux sont ceux, en particulier sur les plateformes en ligne, qui s'interrogent sur les risques potentiels que ces technologies peuvent présenter – voir cet article de la Harvard Business Review qui décrit certains risques liés à l'IA. Les plateformes en ligne pourraient bientôt être inondées de contenus générés par l'IA, ce qui aurait des implications pour la sécurité et la fidélisation de leurs utilisateurs, ainsi que pour leur réputation. Il existe déjà des start-ups qui proposent des outils permettant de générer et de diffuser des volumes massifs de contenus GenAI.

Mais l'IA et la GenAI peuvent également être utilisées à notre avantage pour gérer ces risques et nous aider à créer des espaces numériques et des plateformes en ligne plus sûrs, comme le montrent certaines idées issues du dernier Trust & Safety Hackathon. À l'heure où de nouveaux outils font leur apparition, le moment est venu de faire le point sur les dernières innovations et les processus mis en place pour gérer les risques auxquels sont confrontées les plateformes en ligne en raison de la GenAI.

Cet article peut aider à répondre à des questions telles que :

  • Comment pouvons-nous protéger au mieux notre entreprise, nos communautés en ligne et nos utilisateurs contre les volumes importants de contenu généré par l'IA (par exemple, des avis frauduleux aux contenus illégaux violant les droits d'auteur et d'autres lois) ?
  • Le contenu généré par l'IA peut-il être détecté ?
  • À quel moment du cycle de vie du contenu généré par l'IA peut-on utiliser des garde-fous de sécurité, et comment ?
  • Comment les réglementations connexes évoluent-elles sur les différents marchés et qu'est-ce que cela signifie pour vous ?

Élaborez votre politique GenAI en tenant compte de votre modèle commercial et de vos besoins.


Toute entreprise utilisant du contenu généré par les utilisateurs doit se doter d'une politique en matière d'IA générative. Il y a généralement deux questions auxquelles il faut répondre. Les utilisateurs souhaitent-ils voir du contenu généré par l'IA, et acceptent-ils que ce contenu soit mélangé à du contenu humain ?

Si vous répondez « non » à l'une ou l'autre de ces questions, vous devez mettre en place une politique relative au contenu généré par l'IA. Par exemple, exiger que ce contenu soit divulgué ou l'interdire expressément. Une telle politique peut être appliquée par des modérateurs humains dotés d'un œil averti et de processus efficaces, à l'aide d'outils tels que Pangram Labs.

Si la réponse est oui (les utilisateurs acceptent ou apprécient le contenu généré par l'IA), alors d'un point de vue politique, tout va bien. Cependant, avant d'introduire directement des outils d'IA tels que les messages assistés par l'IA de Linkedin, vous devez vous assurer que le contenu est sûr. Pour cela, vous devez mettre en place des garde-fous et, surtout, toujours mettre en place des processus permettant de modérer de manière efficace et efficiente le contenu généré par l'IA, à l'instar de la modération du contenu généré par les utilisateurs, à l'aide d'outils tels que la plateforme de modération de Tremau.

Bien sûr, votre politique en matière d'IA générative dépend de votre activité et de votre contexte. Il n'existe pas de solution universelle. Par exemple, si vous êtes une place de marché ou, de manière générale, une plateforme où les utilisateurs se fient aux avis d'autres utilisateurs, vous devrez peut-être vous assurer qu'aucun avis généré par l'IA ne se retrouve sur votre plateforme. De manière plus générale, vous devez également vous assurer qu'aucun contenu illégal généré par l'IA, tout comme le contenu généré par les utilisateurs, ne se trouve sur votre plateforme. Les bots et les spams ont toujours été un défi, mais avec la puissance de GenAI, ils sont plus puissants et plus difficiles à détecter.

Comprendre et exploiter les garde-fous de l'IA


La plupart des API IA commerciales fournissent une sorte de garde-fou IA. L'API Gemini de Google évalue automatiquement ses résultats selon quatre catégories de sécurité : discours haineux, harcèlement, contenu sexuellement explicite et contenu dangereux. Si vous utilisez l'API OpenAI d'Azure, vous obtenez des évaluations similaires basées sur les filtres de contenu « haine et équité », « sexualité », « violence » et « automutilation ». Les deux API rejettent les requêtes qui obtiennent un score trop élevé dans l'une de ces catégories, mais laissent à votre discrétion les niveaux intermédiaires de modération de la sécurité.

Si vous utilisez un modèle open source tel que Llama-2 ou Mistral, vous devrez créer votre propre filtre de contenu. Pour ce faire, vous pouvez soit faire appel à un classificateur closed source (API de filtrage de contenu d'OpenAI, API de sécurité de contenu IA d'Azure), soit utiliser une solution open source telle que LlamaGuard, récemment lancée par Meta. LlamaGuard est un modèle basé sur un LLM à 7 milliards de paramètres qui obtient d'excellents résultats aux tests de performance. Il semble prometteur pour la classification des invites et des réponses, ainsi que pour la modération générale de contenu.

Assurez-vous que les humains restent impliqués et que vos processus sont conformes à la réglementation.


Quels que soient les outils automatisés que vous utilisez pour protéger vos utilisateurs et votre entreprise, aucune technologie ne peut vous protéger totalement. Tous les outils d'IA que vous utilisez commettront toujours des erreurs. Vous devez vous assurer que ces erreurs ne vous exposent pas à des risques opérationnels, réglementaires ou liés à la clientèle.

Tout d'abord, vous devrez toujours faire appel à des êtres humains qui, au minimum, examineront certains des contenus que les outils leur signaleront pour vérification. Bien sûr, vos processus de révision de contenu doivent être efficaces et efficients. Ironiquement, plus les outils d'IA se multiplient sur le marché (par exemple, pour générer ou modérer du contenu), plus vous aurez besoin de faire appel à des personnes dans certains cas.

Deuxièmement, tous les processus et pratiques de modération de contenu doivent être conçus en tenant compte de la sécurité et de la fidélisation de vos utilisateurs, et donc aussi de votre activité. Que se passe-t-il si des erreurs de modération suscitent des inquiétudes ? Comment vous assurez-vous que vos utilisateurs ont leur mot à dire lorsque cela est nécessaire pour corriger vos décisions ou celles de votre IA ? Comment vous assurez-vous que vos modérateurs disposent de tout ce dont ils ont besoin pour prendre les meilleures décisions de modération de la manière la plus efficace et la plus efficiente possible ? Pour gérer ces complexités, entre autres, vous devez réfléchir soigneusement à vos processus et les automatiser efficacement, en utilisant par exemple des outils tels que la plateforme de modération de contenu de Tremau.

Enfin, 2024 sera l'année où vous devrez vraiment redoubler d'efforts pour vous assurer de ne pas faire partie des entreprises sanctionnées par les régulateurs. La loi européenne sur les services numériques s'appliquera à toutes les plateformes en ligne opérant en Europe. Elle vous obligera à repenser vos processus et à fournir des rapports, tels que des rapports de transparence, sous peine d'amende. Bien sûr, la conformité est nécessaire, que votre plateforme soit ou non concernée par l'IA ou qu'elle l'utilise.

Comment pouvons-nous vous aider ? Chez Checkfor.ai et Tremau, nous travaillons pour vous aider à naviguer au mieux dans le nouveau monde de l'IA puissante et des nouvelles réglementations.

Pour en savoir plus, contactez-nous à l'adresse info@tremau.com et info@pangram.com.



Theodoros Evgeniou est cofondateur et directeur de l'innovation chez Tremau, professeur à l'INSEAD, membre du réseau d'experts de l'OCDE sur l'IA, conseiller auprès du BCG Henderson Institute et partenaire académique sur l'IA au Forum économique mondial. Il est titulaire de quatre diplômes du MIT, dont un doctorat dans le domaine de l'IA.

Max Spero est cofondateur et PDG de Pangram Labs. Auparavant, il était ingénieur logiciel chez Google et Nuro, où il développait des pipelines de données et formait des modèles d'apprentissage automatique. Il est titulaire d'une licence et d'une maîtrise en informatique de l'université de Stanford.

Cet article a été co-publié avec Tremau en janvier 2024.

Abonnez-vous à notre newsletter
Nous partageons chaque mois les dernières avancées de nos recherches en matière de détection de l'IA.