Wir geben eine neue Partnerschaft mit Proofig bekannt! Weitere Informationen

Betrug jenseits von ChatGPT: Agentische Browser stellen ein Risiko für Universitäten dar

Alexander Roitman
22. Oktober 2025

Seit der Einführung von ChatGPT haben sich KI-Chatbots in Schulen stark verbreitet. Aber OpenAI, das Unternehmen hinter ChatGPT, hat gerade ein neues KI-Tool veröffentlicht, das die Bekämpfung von KI-generierten Aufgaben mit KI-Erkennung erschweren könnte. Der neue Browser von OpenAI namens Atlas folgt auf die Veröffentlichung anderer Browser, die KI-Technologie integrieren. In diese Browser sind Assistenten eingebaut, die den Browser ohne Tastatureingaben oder Mausklicks bedienen. Das bedeutet, dass sie selbstständig in einem Learning Management System (LMS) wie Canvas und in Testsoftware navigieren können. Die Ankündigung von OpenAI für ihr neues Produkt enthielt eine Empfehlung eines Studenten, der das Tool als Hilfe für sein Lernen empfand. Studenten und Forscher schlagen jedoch Alarm, dass diese Tools die akademische Integrität und persönliche Daten in Klassenzimmern gefährden, die bereits durch den zunehmenden Einsatz von KI auf den Kopf gestellt wurden.

In Online-Beiträgen nutzen Studierende diese sogenannten „Agentic Browser“, um akademische Plattformen wie Canvas und Coursera zu übernehmen und ihnen zugewiesene Quizfragen zu beantworten. Der CEO von Perplexity, dem Entwickler des Agentic Browsers Comet, reagierte sogar auf einen Studierenden, der zeigte, wie er das Tool zur Beantwortung eines Quiz nutzte, mit den Worten: „Tun Sie das auf keinen Fall!“

Diese Browser interagieren auf Wunsch des Benutzers mit Websites, um Aufgaben wie Einkaufen, Web-Navigation und das Ausfüllen von Formularen zu erledigen. Sie können sogar Schularbeiten erledigen, ohne dass die Schüler die Tastatur berühren müssen. Siehe Beispiel unten:


Carter Schwalb, Student der Betriebswirtschaftslehre an der Bradley University, leitet den AI Club seiner Hochschule. Er berichtet, dass er mit agentenbasierten Browsern experimentiert hat, um Reisen zu planen, Wohnungen zu suchen und Informationen aus verschiedenen Websites zusammenzufassen. Allerdings hat er mit vielen Professoren seiner Universität gesprochen, die berichten, dass Studenten für ihre Hausarbeiten von KI generierte Antworten einreichen.

„Ich habe viele Fälle gesehen, sogar aus Gesprächen mit Professoren, in denen Studenten ganz offen von ChatGPT generierte Antworten eingereicht haben“, sagte Schwalb.

Für Schüler bieten agentenbasierte Browser eine neue Art von Komfort, da sie über integrierte Chatbots verfügen und Aufgaben automatisch ausführen und einreichen können. Lehrer, die diese Probleme bekämpfen möchten, können anhand des Versionsverlaufs in Google Docs feststellen, ob Schüler KI-Assistenten verwenden, um ganze schriftliche Arbeiten zu erstellen und einzureichen.

Studierende wie Schwalb verzichten jedoch auf den Einsatz dieser Tools, um Aufgaben freihändig zu erledigen. Schwalb sagte, er wolle seine Fähigkeiten zum kritischen Denken nicht verlieren, indem er seine gesamte Arbeit an KI-Tools auslagert.

„Ich muss meine Fähigkeit zum kritischen Denken bewahren, und ich denke, das muss betont werden, wahrscheinlich sowohl von Lehrern gegenüber ihren Schülern als auch von Eltern gegenüber ihren Kindern“, sagte Schwalb.

Nicht jeder teilt Schwalbs Ansicht. Aber die aktive Nutzung von Browsern wirft nicht nur Fragen hinsichtlich der akademischen Integrität und des Engagements im Bildungsbereich auf. In einer Studie, die von Yash Vekaria, Doktorand an der University of California Davis, und anderen verfasst wurde, kamen die Forscher zu dem Schluss, dass generative KI-Assistenz-Browsererweiterungen die persönlichen Daten ihrer Nutzer speichern und weitergeben.

„Manchmal kann dies das Sammeln und Speichern von Informationen beinhalten, die für einen Nutzer sensibel sind“, sagte Vekaria.

Die Studie wurde Ende 2024 durchgeführt, als agentenbasierte Browser noch nicht zum Mainstream der KI-Nutzung gehörten. Ab Mai 2025 nahmen die Suchanfragen nach „KI im Browser” und „Comet Browser” (dem von Perplexity entwickelten Tool) bei Google zu. Laut Vekaria gelten die Schlussfolgerungen der Forscher jedoch auch für agentenbasierte Browser. Darüber hinaus könnten agentenbasierte Browser laut Vekaria mehr Datenschutzrisiken bergen, als in der Studie behandelt wurden.

„Der Assistent ist immer im Seitenbereich präsent, sodass er auf alles zugreifen und alles sehen kann, was der Benutzer tut“, sagte Vekeria. „Agentische Browser sammeln all diese Informationen und bergen meiner Meinung nach, wenn nicht ähnliche, so doch zumindest größere Risiken.“

Viele Studenten, die Agent-Browser für akademische oder persönliche Aufgaben nutzen, sind sich dieser Risiken nicht bewusst, so Vekaria. Bei der Verwendung auf akademischen Plattformen wie Canvas sammelten KI-Assistenztools akademische Daten von Studenten und gaben diese an andere Websites weiter. Die Privatsphäre der Bildungsdaten von Studenten sollte eigentlich durch ein Bundesgesetz namens FERPA geschützt sein.

„Wir haben festgestellt, dass damit akademische Daten von Studenten abgezogen werden konnten, was gemäß FERPA, dem Gesetz zum Schutz akademischer Daten von Studenten in den USA, ein Risiko darstellt“, so Vekaria. „Generell sollte es mehr behördliche Kontrollen geben.“

Allerdings haben die Universitäten im ganzen Land keine einheitliche Reaktion auf die Nutzung dieser Tools durch ihre eigenen Studenten gezeigt. Während KI-Detektoren die eingereichten Arbeiten der Studenten bewerten können, werden diese Überprüfungen bei Multiple-Choice-Tests und Diskussionsforen nicht durchgeführt. Die Studenten nutzen diese Tools trotzdem, und Schwalb argumentiert, dass Einschränkungen nicht die Lösung sind.

„Ich habe noch kein ausreichend gutes Argument gegen KI gefunden, das eine vollständige Einführung an einer Universität rechtfertigen würde, außer dass wir nicht wollen, dass Kinder sie nutzen, was einfach nicht vernünftig ist“, sagte Schwalb. „Das ist so, als würde man jemandem sagen, er solle das Internet nicht nutzen, oder als würde man jemandem sagen, er solle nichts am Fließband herstellen.“

Mit dem Aufkommen neuer Tools ändern sich auch die Realitäten für Studierende und Professoren ständig. Unternehmen, die Bildungseinrichtungen unterstützen möchten, bringen verschiedene Tools auf den Markt, wie beispielsweise fortschrittliche KI-Detektoren, die die Benutzerdaten schützen, die durch agentenbasierte Browser gefährdet sein könnten.

„Die Möglichkeit ist da, und die Studenten werden sie nutzen“, sagte Schwalb. „Die Frage ist nicht, ob wir dies einschränken sollen, sondern wie wir es integrieren können.“

Abonnieren Sie unseren Newsletter
Wir veröffentlichen monatliche Updates zu unserer Forschung im Bereich der KI-Erkennung.
Abonnieren Sie
, um unsere Updates zu erhalten.
Bleiben Sie mit unseren aktuellen Neuigkeiten und Angeboten auf dem Laufenden.
© 2025 Pangram. Alle Rechte vorbehalten.