宣布与Proofig建立全新合作伙伴关系!了解更多

关于拜登人工智能安全行政命令的声明

马克斯·斯佩罗
2023年10月31日

注意: 我们已更名为Pangram Labs!详情请参阅我们的博客文章

今日,拜登政府发布了人工智能安全与保障的新标准,其中包括这项关于人工智能内容检测的指令:

商务部将制定内容认证和水印技术指南,明确标注人工智能生成的内容。联邦机构将运用这些工具,使美国民众能够轻松辨别政府通信的真实性,并为私营部门及全球各国政府树立典范。

乔·拜登,来自ai.gov。

Checkfor.ai全力支持拜登政府对安全、负责任地部署大型语言模型的承诺。我们认为,制定人工智能内容认证的指导方针和政策是保障人工智能安全的重要举措,这与我们保护互联网免受大型语言模型生成垃圾信息及其他恶意内容侵害的使命高度契合。 若全社会加大对AI生成内容检测的投入,无论作为AI技术的消费者还是使用者,世界都将因此受益。今日,我们特此发布公司关于内容认证、水印技术及检测方案的立场声明。

  • 我们认为当前没有任何检测方案能够充分解决这个问题,必须投入更多资源专门攻克人工智能检测技术
  • 我们认为水印技术并非解决此问题的良策,因为它会助长虚假的安全感,且当用户能够访问模型权重或编辑输出结果时,其局限性已得到证实(https://arxiv.org/pdf/2305.03807.pdf,https://arxiv.org/pdf/2301.10226.pdf)。 目前已存在功能强大的无水印开源模型,恶意行为者始终能够通过本地微调其版本来规避检测。此外,我们认为即使在无水印模型上,检测问题也是可解决的。
  • 我们支持对人工智能安全及大型语言模型的监管,但核心原则是所有监管措施必须支持开源生态系统。开源机制能对大型科技公司形成制衡,为消费者提供透明度保障,并使公众能够自由评估、批评和基准测试这些模型。
  • 我们认为,政府在促进人工智能安全和投资人工智能检测研究方面,应重点资助学术界和产业界的人工智能检测项目。
  • 为推动人工智能检测领域的高效研究,我们必须建立基准测试与评估标准,使消费者能够了解现有AI检测工具的效能与局限。我们致力于制定并推动全行业通用的AI检测标准,确保更庞大、更强大的语言模型能够安全且负责任地部署。

在Checkfor.ai,我们正致力于构建可靠的人工智能检测系统,确保新一代语言模型能够安全高效地部署。我们欣喜地看到拜登政府致力于区分人类创作与人工智能生成的内容,并期待与研究人员及政策制定者携手制定这些重要标准。

订阅我们的电子报
我们每月分享人工智能检测研究的最新进展。
订阅
以获取我们的最新动态
随时掌握我们的最新资讯与优惠活动。
© 2025 Pangram。保留所有权利。