AI ガードレール
- 最終更新日2025/03/07
AI ガードレール
AI ガードレール は、セキュリティとコンプライアンスのポリシーを強制し、機密データを保護し、倫理的なAIの実践を確保するインラインインターセプションメカニズムを提供します。
プロンプト内で使用される機密データを特定し、それをトークン化された値に置き換えるために、スマートトークン化を採用しています。 同様に、モデルの応答を傍受してトークン化された値を再構築および置き換え、応答の関連性を確保します。 さらに、それはプロンプトとモデルの応答の毒性レベルを監視して、毒性レベルを監査します。
AI ガードレールでAutomation 360を構成する際、データマスキングルールの設定と有毒性モニタリングの理解が重要です。 これらの機能は、システムがさまざまな種類の機密データをどのように扱い、LLMとの対話で使用される言語の適切性を評価するかを定義し、Botの実行中に潜在的な問題を防ぎます。 このトピックは、AI ガードレールの実装と機能に関する洞察を提供し、データセキュリティと責任あるAIの実践を促進する上での役割を強調しています。

AI ガードレールの中心にはデータマスキング機能があり、これはBotのプロンプト内の機密データ要素を特定してトークン化された値に置き換えてから、リクエストを大規模言語モデル(LLM)に送信することで動作します。 このプロセスは、正確な応答を生成するために必要なコンテキストを保持しながら、敏感な情報がLLMによって直接処理されるのを保護します。 さらに、有毒性監視機能は、LLMに送信されるプロンプトと、それによって生成される応答を潜在的に有害な言語について監視します。
ベネフィット
- データ マスキング
- データマスキングは、既知の機密データを特定し、それを架空の値に置き換えるための難読化技術です。
- 毒性監視
-
AI ガードレールは LLMに送信されたプロンプトとLLMによって生成された応答の両方を分析し、潜在的に有害な言語を低、中、高の毒性として分類します。 現在は「観察のみ」モードですが、この機能は潜在的に問題のある言語使用を特定することを可能にします。 将来のリリースでは、有毒性レベルに基づいてプロンプトをブロックする機能が含まれます。
- モニタリングとログ記録
-
Automation 360は、データマスキングプロセスの詳細を含むすべてのガードレールアクションを記録します。 この包括的なログは監査証跡を提供し、管理者がAI ガードレールの機能を監視し、データ保護ポリシーへの準拠を確認することを可能にします。