Proofigとの新たな提携を発表!詳細はこちら
課題の採点中、一つずつ読んでいると、ある課題が目に留まった。何が違うのかははっきり言えないが、生徒の文章とは思えない。AIの文章のように聞こえる。そこでパングラムに投入すると結果が出た。99% AI。これに対してどう対処すべきか?
PangramのようなAI検出ツールは、テキストがAIによって書かれた兆候を検知するよう訓練されています。テキストの一部が99%のAIスコアを示した場合、必ずしもそのテキスト全体がAI生成であると判断するわけではありません。むしろ、テキストの一部が生成される過程でAIが使用された可能性が99%あると確信しているのです。
長い文書では、テキストをセグメントに分割します。これにより、すべてのセグメントがAIによる信頼度が高いか、それともテキストの一部だけが該当するかを確認できます。
生徒と話すという単純な行動を、私はいつもお勧めしています。
彼らの執筆プロセスについて尋ねて、自身の提出物をどれだけ理解しているかを探ることもできます。あるいは、単にAIを使用したかどうかを尋ねる手もあります。彼らは認めるかもしれません——仕事が山積みで、手抜きをする課題を選ばざるを得なかったと。あるいは、最初の草案を書いたものの結果に満足できず、ChatGPTに改善を依頼したと。
これは、学術的誠実性の違反となる行為とそうでない行為について議論する絶好の機会です。生徒に、今後このような問題にどう対処すべきかを改めて伝えることができます。提出期限の延長を依頼すべきでしょうか?それとも、AI作成前の粗削りな初稿をそのまま提出すべきでしょうか?
生徒には、近道をするのではなく、学校に適した学習促進に役立つAIツールを指導することもできます。
教師が不正行為と見なす行為、生徒が不正行為と見なす行為、そしてAI検出ツールが反応する行為の間には、時に認識のズレが生じます。以下に、AI検出ツールの反応を引き起こす可能性のある、AIの一般的な使用例を示します。
生徒と教師がどの補助ツールの使用を許可されているかについて認識を一致させるため、このような階層型AIポリシーの使用をお勧めします。これにより、教師がGrammarlyの使用を許可しながら、同ツールが現在完全なAIライティングアシスタントであることに気づかず、さらにAI検出ツールを使用しているために、GrammarlyのAI機能を利用する生徒を検知してしまうといった誤解を防げます。
学生がChatGPTの表現を一部使用したことを認めた場合、あるいは稀な誤検知だと主張する場合、その学生の潔白を証明し、実際に自分で作業したことを確認する最善の次のステップは、執筆過程の痕跡を調べることです。この課題のためにどのような調査を行い、メモは取ったのか?初期の草稿は保存されているのか?
Google ドキュメントで作業した場合、[ファイル] → [バージョン履歴] → [バージョン履歴を表示]を選択すると、執筆プロセスの完全な履歴を確認できます。ChatGPT からコピーしてファイルに貼り付けただけなのか、それとも最初から最後まで一気に入力したのか(AI 支援を受けたが執筆プロセスを偽装しようとした証拠)が明確になります。 数時間に及ぶ確固たる執筆履歴がある場合、それは当該作業を自ら執筆した非常に有力な証拠となります。
学術的誠実性に関するニュースレター『The Cheat Sheet』の著者であるデレク・ニュートンは、AI検出器を金属探知機に例えることが多い。金属探知機を通過した際に警報が鳴っても、即座に逮捕されて刑務所へ送られるわけではない。代わりに、さらに調査が行われるのだ。 実際に銃を持ち込もうとしたのか、それともベルトのバックルが金属製だっただけなのか?同様に、AI検出は課題の不正を指摘する優れた手段だと考えますが、罰則措置の前にさらなる調査が必要です。ゼロではない誤検知率(false positive rate)は、陽性判定が本物である可能性もあれば、パングラムが誤判定する統計的に異常な1万分の1のケースである可能性もあることを意味します。
学生が自身の執筆過程の証拠を提示できるなら、私はそれを信じる傾向にある。最悪の場合でも、AI支援を軽率に使うべきではないという教訓を学ぶことになる。
学生の過去の作品がAI検出された実績がある場合、その点も考慮すべきである。一度は疑わしきは罰せずの扱いを受けるかもしれないが、これが繰り返されるほど問題があることが明らかになる。
AIによる剽窃の微妙な問題に対処するすべての方にとって、このガイドが役立つことを願っています。これは非常に難しい状況です。だからこそ、教師がこのようなケースに直面した際に適切に対処できるよう、AIツールと情報を備えておくことが重要です。