宣布与Proofig建立全新合作伙伴关系!了解更多
随着人工智能日益普及,教师们希望能够识别学生是否使用AI代写作业。为教师配备AI检测工具看似是自然之选,但许多人对此持保留态度。倘若软件出现误判,后果将如何?
这种担忧不无道理。迄今为止,人工智能检测工具的可靠性一直令人堪忧。大量研究表明,这些工具常常无法识别出文本样本是由人工智能生成的,而心怀不轨的作弊者只需巧妙地穿插少量改写或拼写错误,就能轻易混淆视听。这些误判问题已足够棘手——它们让部分计算机生成的文本得以蒙混过关。
但更令人担忧的是早期检测工具的高误报率。当实际由人类撰写的文本被误判为AI生成时,就会引发误报——这不仅会让无辜的学生承受压力和不必要的处分,迫使教师进行多余的监管,更会导致校园信任体系的崩溃。
对于英语非母语的学生而言,这个问题尤为突出。多款AI检测工具对非母语者存在明显偏见。斯坦福大学2023年的一项研究发现,在非英语母语者撰写的论文中,每五篇就有一篇被多个检测器一致(且错误地)判定为AI生成。其中近乎所有论文都至少被其中一款检测器误判。
最流行的AI检测工具都承认这类错误时有发生。 例如TurnItIn宣称其误报率约为200分之1,这意味着教师每检测200篇论文,就会有一篇学生原创作品被错误判定为AI生成。其他工具的误报率宣称在500分之1至100分之1之间,而独立研究发现实际误报率可能更高。
另一方面,Pangram的误报率仅为万分之一,这一数据是通过对数千万份文档的测试得出的。当处理由完整句子构成的、超过数百字的文本时,我们的模型表现尤为可靠——这恰恰是学生通常在大型作业中提交的写作类型。
当AI检测器将某段文本标记为AI生成时,教师可采取以下措施确认结果:首先应谦逊地询问学生是否使用了AI工具。若检测结果确属误判,学生可提供写作过程证据,例如Google文档的完整修订记录或早期草稿副本。 此时教师可承认这可能是极其罕见的误判。学生还应能详细阐述写作过程。这样的对话既可能展现其对作业内容的深刻理解,证明确实为原创;也可能揭示学生在不知情的情况下使用了不当AI手段,从而验证检测器的结论。
如果学生坚持声称未使用AI,却无法提供证据或对作品进行合理解释,仍可给予其信任。毕竟,若因无辜之事受罚,将造成极其严重的伤害。 此时教师可要求学生今后保留写作过程记录,这有助于消除后续误解。若学生明知故犯谎称未使用AI,未来很可能会三思而后行。但若其作品持续被Pangram这类精准的AI检测工具标记,则应升级处理。单次失误的概率本就微乎其微,多次失误的概率更是微乎其微。