Annonce d'un nouveau partenariat avec Proofig ! En savoir plus

La tricherie au-delà de ChatGPT : les navigateurs agents présentent des risques pour les universités

Alexandre Roitman
22 octobre 2025

Les chatbots IA se sont multipliés dans les établissements scolaires depuis le lancement de ChatGPT. Mais OpenAI, la société à l'origine de ChatGPT, vient de sortir un nouvel outil IA qui pourrait rendre plus difficile la lutte contre les devoirs générés par l'IA grâce à la détection IA. Le nouveau navigateur d'OpenAI, appelé Atlas, fait suite à la sortie d'autres navigateurs intégrant la technologie IA. Ces navigateurs intègrent des assistants qui permettent de les utiliser sans saisie au clavier ni clic de souris. Cela signifie qu'ils peuvent naviguer de manière autonome dans un système de gestion de l'apprentissage (LMS) tel que Canvas et dans des logiciels de test. L'annonce d'OpenAI concernant son nouveau produit comprenait le témoignage d'un étudiant qui a trouvé cet outil utile pour son apprentissage. Cependant, les étudiants et les chercheurs tirent la sonnette d'alarme, estimant que ces outils mettent en péril l'intégrité académique et les données personnelles dans des salles de classe déjà bouleversées par l'essor de l'utilisation de l'IA.

Dans leurs publications en ligne, les étudiants utilisent ces « navigateurs agents » pour prendre le contrôle de plateformes académiques telles que Canvas et Coursera et répondre aux questionnaires qui leur sont assignés. Le PDG de Perplexity, créateur du navigateur agent Comet, a même répondu à un étudiant qui montrait comment il utilisait l'outil pour répondre à un questionnaire en lui disant « Ne faites surtout pas ça ».

Ces navigateurs interagissent avec les sites Web à la demande de l'utilisateur pour effectuer des tâches telles que les achats, la navigation sur le Web et la soumission de formulaires. Ils peuvent même réaliser des travaux scolaires sans que l'élève ait besoin de toucher le clavier. Voir l'exemple ci-dessous :


Carter Schwalb, étudiant en dernière année d'analyse commerciale à l'université Bradley, dirige le club d'IA de l'établissement. Il explique avoir testé des navigateurs agents pour planifier des voyages, rechercher des appartements et résumer des informations trouvées sur divers sites web. Cependant, il a discuté avec de nombreux professeurs de son université qui lui ont rapporté que des étudiants soumettaient des réponses générées par l'IA pour leurs devoirs.

« J'ai vu de nombreux cas, même en discutant avec des professeurs, où les étudiants soumettaient ouvertement des réponses générées par ChatGPT », a déclaré M. Schwalb.

Pour les étudiants, les navigateurs agentifs offrent un nouveau type de commodité, grâce à leurs chatbots intégrés et à leur capacité à remplir et à soumettre automatiquement les devoirs. Pour les enseignants qui souhaitent lutter contre ces problèmes, consulter l'historique des versions sur Google Docs peut aider à déterminer si les étudiants utilisent des assistants IA pour remplir et soumettre l'intégralité de leurs travaux écrits.

Les étudiants comme Schwalb s'abstiennent toutefois d'utiliser ces outils pour réaliser leurs devoirs sans intervention humaine. Schwalb explique qu'il ne souhaite pas perdre ses capacités de réflexion critique en confiant tout son travail à des outils d'IA.

« Je dois conserver ma capacité à penser de manière critique et je pense que cela doit être souligné, probablement aussi bien par les enseignants auprès de leurs élèves que par les parents auprès de leurs enfants », a déclaré M. Schwalb.

Tout le monde ne partage pas le point de vue de Schwalb. Mais l'utilisation d'un navigateur agentique ne soulève pas seulement des questions d'intégrité académique et d'engagement dans l'éducation. Dans une étude rédigée par Yash Vekaria, doctorant à l'université de Californie à Davis, et d'autres chercheurs, ces derniers ont conclu que les extensions de navigateur assistées par IA générative stockent et partagent les données personnelles de leurs utilisateurs.

« Cela peut parfois impliquer la collecte et le stockage d'informations sensibles pour l'utilisateur », a déclaré M. Vekaria.

L'étude a été réalisée fin 2024, à une époque où les navigateurs agentics ne faisaient pas encore partie des utilisations courantes de l'IA. À partir de mai 2025, les recherches sur Google pour « IA dans le navigateur » et « navigateur Comet » (l'outil créé par Perplexity) ont commencé à augmenter. Cependant, selon M. Vekaria, les conclusions auxquelles sont parvenus les chercheurs s'appliquent aux navigateurs agentifs. De plus, il a ajouté que les navigateurs agentifs pourraient présenter davantage de risques pour la vie privée que ceux couverts par l'étude.

« L'assistant est toujours présent dans le panneau latéral, il peut donc accéder à tout ce que fait l'utilisateur et le visualiser », explique M. Vekeria. « Les navigateurs agentique collectent toutes ces informations et présentent, à mon avis, des risques similaires, voire plus importants. »

De nombreux étudiants qui utilisent des navigateurs agentics pour leurs travaux universitaires ou personnels ne comprennent pas ces risques, a fait remarquer M. Vekaria. Lorsqu'ils sont utilisés sur des plateformes universitaires telles que Canvas, les outils d'assistance IA collectent et partagent les dossiers scolaires des étudiants avec d'autres sites. La confidentialité des dossiers scolaires des étudiants est censée être protégée par une loi fédérale appelée FERPA.

« Nous avons constaté qu'il était capable d'exfiltrer les dossiers scolaires des étudiants, ce qui constitue un risque au regard de la loi FERPA qui protège les données scolaires des étudiants aux États-Unis », a déclaré M. Vekaria. « D'une manière générale, il faudrait renforcer l'application de la réglementation. »

Cependant, les universités à travers le pays n'ont pas montré de réponse cohérente à l'utilisation de ces outils par leurs propres étudiants. Alors que les détecteurs d'IA peuvent évaluer les travaux soumis par les étudiants, les tests à choix multiples et les forums de discussion n'intègrent pas ces contrôles. Les étudiants utilisent ces outils malgré tout et Schwalb soutient que la restriction n'est pas la solution.

« Je n'ai pas vu d'argument suffisamment convaincant contre l'IA pour qu'elle soit pleinement adoptée dans une université, si ce n'est que nous ne voulons pas que les enfants l'utilisent, ce qui n'est tout simplement pas raisonnable », a déclaré M. Schwalb. « C'est comme si Internet faisait son apparition et qu'on disait à quelqu'un de ne pas l'utiliser, ou comme si la révolution industrielle avait lieu et qu'on disait à quelqu'un de ne pas fabriquer quelque chose sur une chaîne de montage. »

À mesure que de nouveaux outils apparaissent, la réalité des étudiants et des professeurs ne cesse d'évoluer. Les entreprises qui cherchent à soutenir les établissements d'enseignement lancent différents outils, tels que des détecteurs IA avancés qui protègent les données des utilisateurs que les navigateurs agents pourraient mettre en danger.

« L'option existe, et les étudiants vont la saisir », a déclaré M. Schwalb. « La question n'est pas de savoir si nous devons restreindre cela, ni comment nous devons le faire. La question est de savoir comment nous pouvons l'intégrer. »

Abonnez-vous à notre newsletter
Nous partageons chaque mois les dernières avancées de nos recherches en matière de détection de l'IA.