Proofigとの新たな提携を発表!詳細はこちら

2023年の「年間最優秀人物」は間違いなくAIと言えるだろう。大規模言語モデル(LLM)やより広義の生成AI(GenAI)の革新速度と能力には誰もが驚かされた。同時に、特にオンラインプラットフォームでは、これらの技術が引き起こす可能性のあるリスクについて疑問を呈する声も多い——AIリスクを概説したハーバード・ビジネス・レビューの記事を参照のこと。 オンラインプラットフォームは間もなくAI生成コンテンツで溢れかえる可能性があり、ユーザーの安全や定着率、プラットフォームの評判に影響を及ぼすだろう。すでに大量の生成AIコンテンツを生成・拡散するツールを提供するスタートアップも登場している。
しかしAIと生成AIは、最新の「Trust & Safety Hackathon」で提案されたアイデアに見られるように、これらのリスクを管理し、より安全なデジタル空間やオンラインプラットフォームを構築するために活用することも可能です。新たなツールが登場する今こそ、生成AIによってオンラインプラットフォームが直面するリスクを管理するための最新技術とプロセスについて、現状を把握する好機と言えるでしょう。
この記事は次のような疑問に答えるのに役立ちます:
ユーザー生成コンテンツを扱うすべての企業は、ジェネレーティブAIポリシーを必要とします。一般的に回答すべき質問は二つあります。ユーザーはAI生成コンテンツを閲覧したいのか、そしてAIコンテンツが人間のコンテンツと混在することにユーザーは問題ないのか、ということです。
どちらかの質問への答えが「いいえ」である場合、AIコンテンツに関するポリシーが必要です。例えば、AIコンテンツの開示を義務付ける、あるいはAIコンテンツを明示的に禁止するといった内容です。このようなポリシーは、鋭い観察眼を持つ人間のモデレーターと、Pangram Labsなどのツールを活用した効果的なプロセスによって実施可能です。
もし答えが「はい」なら——ユーザーがAIコンテンツを問題なく受け入れるか、むしろ歓迎しているなら——ポリシーの観点では問題ありません。ただし、LinkedInのAI支援メッセージのようにAIツールを直接導入する前に、コンテンツの安全性を確保する必要があります。 そのためには一定のガイドラインが必要であり、さらに重要なのは、ユーザー生成コンテンツのモデレーションと同様に、Tremauのモデレーションプラットフォームなどのツールを活用し、AI生成コンテンツを効果的かつ効率的に監視するプロセスを常に整備することです。
もちろん、GenAIポリシーは事業内容や状況によって異なります。万能な解決策はありません。例えば、マーケットプレイスやユーザーレビューに依存するプラットフォームでは、AI生成レビューがプラットフォームに流入しないよう対策を講じる必要があるでしょう。 より一般的に言えば、ユーザー生成コンテンツと同様に、AIによって生成された違法コンテンツがプラットフォーム上に存在しないことも保証する必要があります。ボットやスパムは常に課題でしたが、ジェネレーティブAIの力によって、それらはより強力になり、検知が困難になっています。
ほとんどの商用AI APIは、何らかのAIガードレールを提供しています。 GoogleのGemini APIは、出力結果を「ヘイトスピーチ」「嫌がらせ」「性的に露骨な内容」「危険なコンテンツ」の4つの安全カテゴリで自動的に評価します。AzureのOpenAI APIを利用する場合も、「ヘイトと公平性」「性的」「暴力」「自傷行為」というコンテンツフィルターに基づく同様の評価が得られます。いずれのAPIも、これらのカテゴリのいずれかでスコアが高すぎるクエリは拒否しますが、中程度の安全モデレーションは利用者の裁量に委ねられます。
Llama-2やMistralなどのオープンソースモデルを使用する場合、独自のコンテンツフィルターを実装する必要があります。これは、クローズドソースの分類器(OpenAIのコンテンツフィルターAPI、AzureのAIコンテンツセーフティAPI)への別途呼び出し、またはMetaが新たにリリースしたLlamaGuardなどのオープンソースソリューションで解決できます。 LlamaGuardは70億パラメータのLLMベースモデルであり、ベンチマークで非常に良好な結果を示しています。プロンプトと応答の分類、および一般的なコンテンツモデレーションにおいて有望な成果が期待できます。
ユーザーとビジネスを保護するためにどのような自動化ツールを使用しても、技術だけでは完全な保護は不可能です。使用するAIツールは常に誤りを犯します。そのような誤りが業務上・顧客・規制上のリスクに晒されないよう、確実に防止する必要があります。
まず、ツールがチェックを促す可能性のあるコンテンツの一部を、少なくとも確認する役割を担う人間を常にプロセスに組み込む必要があります。もちろん、コンテンツレビュープロセスは効果的かつ効率的であるべきです。皮肉なことに、市場でAIツール(コンテンツ生成やモデレーションなど)が普及すればするほど、場合によってはより多くの人間を関与させる必要が生じるかもしれません。
第二に、あらゆるコンテンツモデレーションのプロセスと実践は、ユーザーの安全と定着率―ひいてはビジネスそのもの―を考慮して設計される必要がある。 モデレーションの誤りが懸念を引き起こした場合、どう対応しますか? ユーザーが、自社(またはAI)の決定を修正する必要がある際に、確実に発言権を持つようにするにはどうすればよいでしょうか? モデレーターが、可能な限り効率的かつ効果的に最善のモデレーション判断を下すために必要なものをすべて備えていることを、どう保証しますか? こうした複雑な課題を含む諸問題を管理するには、例えばTremauのコンテンツモデレーションプラットフォームのようなツールを活用し、プロセスを慎重に検討し効果的に自動化することが求められます。
最後に、2024年は規制当局による罰金の対象企業とならないよう、対策を強化すべき年となるでしょう。EUのデジタルサービス法が欧州で事業を行う全てのオンラインプラットフォームに適用され、プロセスの再設計や透明性報告書などの提出が義務付けられます。これに従わない場合は罰金が科せられます。もちろん、プラットフォームがAIの影響を受けるか否か、あるいはAIを利用しているか否かにかかわらず、コンプライアンス対応は必須です。
ご用件をお聞かせください。 Checkfor.aiとTremauでは、強力なAIと新たな規制がもたらす新たな世界を、お客様が最善の方法で乗り切れるよう支援しています。
詳細については、info@tremau.comおよびinfo@pangram.com までお問い合わせください。
テオドロス・エヴゲニウは、トレモーの共同創業者兼最高イノベーション責任者、INSEAD教授、OECD人工知能専門家ネットワークメンバー、BCGヘンダーソン研究所顧問を務め、世界経済フォーラムにおけるAI分野の学術パートナーを歴任している。MITで4つの学位を取得しており、その中にはAI分野の博士号も含まれる。
マックス・スペロはパングラム・ラボの共同創業者兼CEOである。以前はGoogleとNuroでソフトウェアエンジニアとしてデータパイプラインの構築や機械学習モデルのトレーニングに従事した。スタンフォード大学でコンピュータサイエンスの学士号と修士号を取得している。
本記事は2024年1月にトレモーと共同で発表されました。