Proofigとの新たな提携を発表!詳細はこちら
ChatGPTの登場以来、学校現場ではAIチャットボットが急増している。しかしChatGPTを開発したOpenAIが新たに発表したAIツールは、AI生成課題を検出する対策の困難化を招く可能性がある。OpenAIの新ブラウザ「Atlas」は、AI技術を組み込んだ他ブラウザに続く製品だ。これらのブラウザには、キーボード入力やマウス操作なしで動作するアシスタント機能が内蔵されている。 つまりCanvasのような学習管理システム(LMS)や試験ソフトを自律的に操作できる。新製品発表では大学生が学習支援ツールとして活用した事例が紹介された。しかし学生や研究者からは、AI普及で混乱する教室環境において、こうしたツールが学術的誠実性と個人データを危険に晒すと警鐘が鳴らされている。
オンライン投稿では、学生たちがこうしたいわゆる「エージェント型ブラウザ」を使って、CanvasやCourseraといった学術プラットフォームを乗っ取り、割り当てられた小テストを完了させている。エージェント型ブラウザ「Comet」の開発元であるPerplexityのCEOは、このツールを使って小テストを完了させた方法を公開した学生に対し、「絶対にこんなことはしないでください」とさえ応答した。
これらのブラウザはユーザーの要求に応じてウェブサイトとやり取りし、ショッピング、ウェブ閲覧、フォーム送信などのタスクを完了します。生徒がキーボードに触れることなく、学校の課題さえも完了させることが可能です。以下の例をご覧ください:
ブラッドリー大学でビジネス分析学を専攻する上級生、カーター・シュワルブ氏は、同大学の AI クラブを率いています。彼は、旅行の計画やアパート探し、さまざまなウェブサイトで見つけた情報の要約のために、エージェント型ブラウザを試用したと語っています。しかし、彼は同大学の多くの教授から、学生たちが AI が生成した回答を課題として提出していると報告を受けています。
シュワルブ氏は「教授たちと話す中でも、学生がChatGPTで生成した回答を露骨に提出する事例を数多く目にしてきた」と述べた。
学生にとって、エージェント型ブラウザは組み込みチャットボットや課題の自動作成・提出機能により新たな利便性を提供する。こうした問題に対処したい教師は、Google ドキュメントのバージョン履歴を確認することで、学生がAIアシスタントを用いて文章全体の作成・提出を行っているかどうかを判断できる。
しかしシュワルブのような学生たちは、これらのツールを使って課題を自動で完了させることを控えている。シュワルブは、すべての作業をAIツールに任せきりにすることで批判的思考能力を失いたくないと語った。
シュワルブ氏は「批判的思考能力を維持する必要がある。これはおそらく、教師が生徒に対して、また親が子供に対して、双方から強調されるべきことだと思う」と述べた。
シュワルブの見解に誰もが同意するわけではない。しかし、エージェント型ブラウザの使用は、学術的誠実さや教育への関与に関する懸念だけをもたらすわけではない。カリフォルニア大学デイヴィス校の博士課程学生、ヤッシュ・ベカリア氏らが執筆した研究では、生成型 AI アシスタントブラウザ拡張機能は、ユーザーの個人データを保存・共有していると結論づけている。
「時には、ユーザーにとって機微な情報を収集・保管することが含まれる場合もある」とベカリアは述べた。
この研究は2024年末に実施され、当時エージェント型ブラウザは主流のAI利用形態には含まれていなかった。 2025年5月以降、Googleでの「AI in browser」および「Comet browser」(Perplexityが開発したツール)の検索数が急増し始めた。しかしヴェカリアによれば、研究者らが導き出した結論はエージェント型ブラウザにも適用されるという。さらに彼は、エージェント型ブラウザは本調査でカバーされた範囲を超えるプライバシーリスクをもたらす可能性があると述べた。
「アシスタントは常にサイドパネルに存在するため、ユーザーが行っているすべての操作にアクセスして閲覧することが可能です」とベケリアは述べた。「エージェント型ブラウザはこうした情報をすべて収集しており、類似したリスクではないにせよ、少なくともより多くのリスクを抱えていると私は考えます」
ベカリア氏は、学業や個人的なタスクにエージェント型ブラウザを利用する多くの学生がこうしたリスクを理解していないと指摘した。Canvasのような学術プラットフォームで使用されたAIアシスタントツールは、学生の学業記録を収集し他のサイトと共有していた。学生の教育記録のプライバシーは、FERPAと呼ばれる連邦法によって保護されるべきものである。
「学生の学業記録を外部に流出させる能力があることを確認しました。これは米国の学生の学業データを保護するFERPA(家族教育権利とプライバシー法)の下でリスクとなります」とベカリア氏は述べた。「一般的に、より多くの規制執行が行われるべきです」
しかし、全国の大学は自校の学生によるこれらのツールの使用に対して、統一された対応を示していない。AI検出ツールは学生の提出物を評価できるが、多肢選択式テストやディスカッションフォーラムではこうしたチェックが組み込まれていない。学生たちはこうしたツールを無制限に利用しており、シュワルブは制限が解決策ではないと主張する。
シュワルブ氏は次のように述べた。「大学でAIを全面的に導入すべきでないという十分な根拠は、学生にAIを使わせたくないという理由以外に見当たらないが、それはまったく理不尽だ。まるでインターネットが登場した時代に『インターネットを使うな』と言うようなものだし、産業革命の時代に『組立ラインで何かを作るな』と言うようなものだ」
新たなツールが登場するにつれ、学生と教授陣の現実は変化し続けている。教育機関を支援しようとする企業は、エージェント型ブラウザが危険に晒す可能性のあるユーザーデータを保護する高度なAI検出ツールなど、様々なツールをリリースしている。
「選択肢はここにある。学生たちはそれを選ぶだろう」とシュワルブは述べた。「問題は、これを制限すべきか否か、あるいはどう制限するかではない。どう取り入れるかだ」