機械学習およびデータチーム向けのAI検出

機械学習エンジニアおよびデータサイエンティスト向けAI検出ツール

LLMのトレーニングとデータ選定を最適化します。99.98%の精度と高スループットのAPIパフォーマンスにより、事前学習や微調整用のデータセットから合成テキストをフィルタリングし、モデルの崩壊を防ぎます。

Google、テスラ、スタンフォード大学の研究者によって開発されました。ICLRおよびメリーランド大学によって検証されています。

filter_pipeline.py
from pangram import Pangram

# Filter synthetic data from corpus
client = Pangram(api_key="your-api-key")
clean_corpus = []

for doc in training_corpus:
  result = client.predict(doc.text)
  if result['fraction_ai'] < 0.3:
    clean_corpus.append(doc)

print(f"Corpus: {len(clean_corpus)} clean docs")

のグローバルブランドから信頼されています
キャンバスGoogle Classroomクオラトレモー透明性企業ニュースガードチャットPDF注目ハロー地平線引用試験監督者バーシティ・チューターズ私の文章を確認済みバイブグレードWHEウィキエデュキャンバスGoogle Classroomクオラトレモー透明性企業ニュースガードチャットPDF注目ハロー地平線引用試験監督者バーシティ・チューターズ私の文章を確認済みバイブグレードWHEウィキエデュ

ユースケース


を使用してモデルをトレーニングする際は、質の悪いデータを使用しないでください。

合成テキストが公開データセットを汚染しています。最も精度の高いAI検出エンジンを用いて、トレーニングパイプラインからAI生成コンテンツを排除し、コーパスの純度を維持しましょう。

AIデータ分析

モデルの崩壊を防ぐ

AI生成コンテンツを用いた再学習は、モデルの性能と多様性を低下させます。コーパスの純度を確保するため、スクレイピングパイプラインからAIが作成したコンテンツを特定し、除外してください。

RLHFの検証

RLHF入力の確認

「Human Feedback(RLHF)」データが実際に人間によるものであることを確認してください。クラウドワーカーがChatGPTを使用して、ファインチューニングタスクの回答を生成していないか検知します。

詳細な分析

粒度の細かい解釈可能性

単純な二分法に甘んじないでください。当社のプレミアムAPIはトークン単位の確率値を返すため、人間が編集したセグメントは保持しつつ、完全に合成された「粗悪なデータ」を排除することができます。

技術的アプローチ


で信頼できるモデル

データフィルタリングに確かな信頼を求めるエンジニアのために開発されました。当社のモデルは、誤検知、敵対的攻撃に対する堅牢性、そして変化し続けるAIの出力に対応しています。

ハードネガティブマイニング

誤検知を最小限に抑え、貴重な人間によるデータを誤って除外しないようにするため、当システムでは「ハードネガティブ」――文体が形式的であったり、反復的であったりする人間による文章――を用いて学習を行っています。

敵対的強靭性

Pangramは、言い換えられたり改変されたAI生成コンテンツに対応しています。当社のモデルは、「ヒューマナイザー」や敵対的攻撃に対して学習されており、難読化された合成テキストを検出します。

将来を見据えた対策

GPT-5、Claude 3.5、Llama 3などの最新モデルから生成されたテキストを検知し、フィルタが常に最新のSOTA(最先端技術)をリードし続けることを保証します。

統合


のデータパイプライン向けに設計されています

01

Python SDK

pangram-sdk をインストールし、わずか数行のコードで Airflow や Databricks のパイプラインに検出機能を組み込むことができます。接続プーリングとエラー処理に最適化されています。

ドキュメントを表示 →

02


の高スループットAPI

膨大なデータセットを低遅延で処理します。当社のインフラストラクチャはバッチ処理に対応し、スループットを保証することで、エンタープライズレベルのスクレイピング業務における数百万件のリクエストを処理します。

APIキーを取得 →

03

セキュリティおよび
への準拠

SOC 2 Type 2の認証を完全に取得しています。専用のエンドポイントと厳格なデータ保持ポリシーを提供しており、お客様の機密データを用いてトレーニングを行うことは一切ありません。

詳細はこちら →

よくある質問

AI検出に関するよくある質問

MLエンジニア
およびデータサイエンティスト向けのAI検出に関するよくある質問。

当社のモデルは、人間とAIが作成した数百万件の文書ペアからなる、多様性に富んだ独自のデータセットを用いて学習されています。アクティブラーニングを活用してエッジケースに焦点を当て、特にESL(英語を第二言語とする)の執筆者に生じがちなバイアスを軽減しています。
このAPIは、予測スコア(0.0~1.0)とカテゴリラベルを返します。高度なエンドポイントでは、ドキュメント全体の「バースト性」や構文パターンを可視化するためのウィンドウ単位の分析機能を提供します。
いいえ。法人のお客様には、プライバシーを保護するため、データをメモリ上で処理し、スコアリング終了直後に破棄するという「データ保持期間ゼロ」の保証を提供しています。
はい。当社は、Gemini UltraやGPT-4といった最新の最先端モデルのリリースから数日以内に、それらの出力データを用いて分類器の再学習を継続的に行っています。
当社のモデルは、合成テキストを難読化しようとする敵対的攻撃や「ヒューマナイザー」に対して特化して学習されています。学習時にハードネガティブマイニングを採用することで、文体が整った人間の文章に対する誤検知を最小限に抑えています。

はい。pangram-sdkをインストールすれば、わずか数行のコードで Airflow や Databricks のパイプラインに検出機能を組み込むことができます。当社の API は、高スループットなエンタープライズ向けスクレイピング業務向けに最適化されており、低遅延で数百万件のリクエストに対応可能です。

バイナリ検出器とは異なり、Pangramはトークン単位の確率を提供します。このきめ細かな解釈性により、トレーニングデータセットから完全に合成された「スロープ」を排除しつつ、人間が編集したセグメントを特定して保持することが可能になります。
Pangramを使用することで、モデルの崩壊を防ぐことができます。スクレイピングパイプラインからAIが生成した再帰的なコンテンツをフィルタリングすることで、コーパスの純度を維持し、不良データによるトレーニングが原因でモデルの性能や多様性が低下するのを防ぐことができます。

今すぐトレーニングデータをクリーンアップしましょう

モデルの崩壊を防ぎ、RLHFの入力データを検証し、データセットから合成コンテンツを99.98%の精度でフィルタリングします。