AIインフォグラフィックス集

AI Infographics Collection

NISTジェネレーティブAIリスク管理フレームワーク
🤖
🛡️

📊 ジェネレーティブAIのリスク管理フレームワーク

📅 発行日: 2024年7月
🏛️ 発行機関: 米国国立標準技術研究所 (NIST)
「虚偽とは、GAIシステムがプロンプトに応答して、誤ったまたは虚偽の内容を生成し、自信を持って提示する現象を指します。」

別名: ハルシネーション捏造

⚠️ GAIを擬人化する「ハルシネーション」という用語自体がリスクとなり得る

💡 「虚偽は、生成モデルがトレーニングデータの統計的分布を近似する出力を生成するという設計上の自然な結果です。」

🛠️ リスク管理フレームワークの機能

ガバナンス
Govern
マッピング
Map
測定
Measure
管理
Manage

各機能に沿って、GAIに関連するリスクを管理するための具体的なアクションが表形式で提示されています。

例: GV-1.3-003 高度なモデル開発前にCBRN情報やサイバー能力の誤用可能性を評価するテスト計画と対応ポリシーを確立する

🔄 信頼できるAIの特性

  • 安全 (Safe)
  • 説明可能かつ解釈可能 (Explainable and Interpretable)
  • 責任ある (Accountable and Transparent)
  • 公正かつ有害なバイアスが管理されている (Fair with Harmful Bias Managed)
  • プライバシーが強化されている (Privacy Enhanced)
  • セキュアかつレジリエント (Secure and Resilient)
  • 有効かつ信頼できる (Valid and Reliable)

🧪 プレデプロイメントテストの重要性

GAIシステムの多様な利用方法とコンテキストから、堅牢なTEVV(テスト、評価、検証、妥当性確認)プロセスが重要

GAIに特化した新しいTEVVアプローチが開発されるまでは「プレデプロイメントテスト」の実践が推奨

📋 重要なポイント

  • コンテンツの来歴管理(Content Provenance)はGAIコンテンツの信頼性確保に重要
  • 組織はGAIシステムのリスクレベルを評価し、リスク許容度に基づく管理策を講じる
  • 第三者提供のGAIコンポーネントやデータのリスクも契約やSLAに反映
  • AIアクター間の連携・情報共有と利害関係者からのフィードバックが不可欠