宣布与Proofig建立全新合作伙伴关系!了解更多

Pangram在检测AI生成内容领域持续展现权威地位。我们行业领先的方法与模型屡次出现在人工智能检测领域的最新研究中,因此今日特此重点介绍近期研究及其发现!
在这项研究中,马里兰大学的研究人员探讨了人类对人工智能生成文本的识别能力。他们邀请熟悉程度各异的标注员阅读300篇非虚构文章,并尝试将其归类为人类撰写或人工智能生成。研究发现,经常使用大型语言模型进行写作任务的人,即使未经专门训练,也能出色地识别人工智能生成的文本。
该研究将人类能力与"自动检测器"(即Pangram)进行对比。请看结果:

Pangram的人性化模型(详见下文)与Pangram本身是远超其他模型的最佳检测器,能100%识别所有AI生成的文本。两款模型在面对改写和人性化处理时仍保持着高鲁棒性,检测率维持在90%。
点击此处查看已发表的研究
在这项研究中,宾夕法尼亚大学的研究人员旨在验证检测器能否对固定的人工智能模型集、文档类型以及"对抗性攻击"(旨在使人工智能文本更难被识别的尝试)进行泛化。他们发现"检测器能够同时稳健地识别来自多个领域和模型的文本"。若有人声称人工智能检测器无效,只需将他们引向这项研究!

看,榜首就是Pangram!我们与Leidos研究团队的探测器并列第一,该探测器正是为这项研究专门设计和训练的。
点击此处阅读我们关于该主题的完整博客文章,并查阅已发表的研究报告!
这项研究探讨了一种名为"反向翻译"的攻击手段:攻击者将文本翻译成多种语言后再译回英文,以此规避人工智能检测。研究发现,这种方法既能保留文本的语义含义,又能显著降低人工智能文本的可检测性(在大多数检测器上😄)。

如您所见,Pangram 在所有类别中都展现出最佳的鲁棒性。尽管反向翻译有时会使竞争对手的检测率减半甚至降至四分之一,Pangram 仍能保持稳定表现。
若您想进一步了解Pangram为优化模型而开展的内部研究,可在此处查阅相关研究内容:
在Pangram,我们致力于推动该领域的研究发展,因此为有意使用Pangram研究AI检测技术的学者提供免费且无限制的访问权限。想了解更多详情?请通过info@pangram.com联系我们。