実務で使えるAIリスク管理フレームワーク—NIST・ISO・EU規制対応まで(2025)

AIリスク管理フレームワークの基本(目的・範囲・用語)
定義と対象範囲の切り分け
最初に決めるべきは「何を対象にするか」です。社外SaaSやAPI連携、自社ホスト型(閉域環境)を含めるかどうか。さらに、自社の立場を「利用者」「開発者」「提供者」のどこに置くのかを明確にしなければなりません。
対象を曖昧にしたまま進めると、承認や責任の線引きが揺らぎ、実務が滞ります。用途は以下の三層に分けると整理しやすくなります。
標準利用(承認不要)
申請必須(利用前に承認が必要)
禁止(利用不可)
管理対象は「入力データ」「出力物」「ログ」の3つに分けると迷いが減ります。参照軸として『NIST AI RMF 1.0』を採用すると、用語や観点が統一され、社内の意思決定がスムーズになります。
出典:NIST「AI Risk Management Framework(AI RMF 1.0)」日本語版PDF
リスクと影響の軸をどう置くか
一般的にリスクは「発生確率 × 影響度」で表されますが、AIではこれだけでは足りません。安全性・プライバシー・公平性・セキュリティ・説明可能性・社会的影響といった軸を並行して評価する必要があります。
実務では、まず「低・中・高」の三段階評価から始めるのが現実的です。
数値化できる指標(誤判定率、レビュー手戻り率など)を少しずつ増やしていき、改善の優先度を明確にします。規格の語彙に寄せると、部門間の合意形成が進みやすく、『OECD AI原則』は価値基盤を整理するのに有効です。
体制と責任の配置(経営〜現場)
体制は「経営」「横断的な審査」「現場運用」の3層で組みます。中心となる役割は次の3つです。
情報管理:データ分類と持ち出し基準
安全性評価:モデルや出力の安全対策
契約管理:データ利用条項や再委託管理
責任者と承認ルートを明記し、曖昧さを残さないことが重要です。方針・標準・手順・様式の文書を揃え、四半期ごとに更新するリズムを持たせれば、仕組みは定着します。『ISO/IEC 42001』はこの循環をAIマネジメントシステム(AIMS)として定着させる規格です。
主要フレームワークの比較(NIST/ISO/OECD)
NIST AI RMFの使いどころ
『NIST AI RMF 1.0』は任意で適用できる実務ガイドです。設計・開発・運用の各フェーズでリスクを洗い出し、対応策とモニタリングに落とし込むことを目的としています。
特徴は、部門横断で合意しやすい観点整理と「成果物よりもプロセスの再現性を重視する」点です。既存のセキュリティや品質基準と並走しやすく、既存ガバナンスに「AIの視点」を加える役割を果たします。
ISO/IEC 23894の要点
『ISO/IEC 23894:2023』は、AIに特化したリスク管理の国際規格です。ISO 31000を基盤に、AIライフサイクル全体を通じて「識別・分析・評価・対応・モニタリング」を回す手順を示しています。
NIST RMFに比べて文書化の粒度が高く、リスク受容水準や責任分担を明文化するのに適しています。規格の言葉に揃えることで監査や外部説明も通しやすくなります。
ISO/IEC 42001との関係
『ISO/IEC 42001』はAIマネジメントシステム(AIMS)の要求事項を定めた規格です。AI RMFやISO 23894で設計したプロセスを、方針・責任・教育・監査・継続改善の枠に固定化します。既存のISMSや品質マネジメントと統合しやすいのも特徴です。
出典:NIST「AI RMF」概要
出典:ISO/IEC 23894(概要)
出典:ISO/IEC 42001(概要)
AIリスク管理フレームワーク:プロセス設計(識別→評価→対応→監視)
リスク識別とスコーピング
ユースケース、データ種別(公開・社外秘・機密)、モデル種別(汎用・専用・自社学習)、影響領域(顧客・従業員・社会)を整理します。
さらに「自社が利用者・開発者・提供者のどの立場にあるか」「どの段階で意思決定が発生するか」を明確にすると、審査や記録の抜け漏れを防げます。
評価とTEVV(テスト・評価・検証・妥当性確認)
モデル更新やデータ差し替えの際は、回帰試験をあらかじめ定義します。想定外入力への耐性や出力の妥当性検証も含めます。
評価指標は誤判定率や再現性といった数値だけでなく、説明可能性や人による監督もカバーします。『NIST AI RMF』はTEVVを整理する際の出発点として有効で、結果はモデルカードに反映させます。
対応策・モニタリングと見直し
リスク対応は「回避・低減・移転・受容」のいずれかに落とし込みます。運用では入力や出力の異常、外向き通信の急増、失敗率の上昇を監視し、閾値を超えたらアラートを出す仕組みを作ります。
KPIは現場の数字(レビュー手戻り率や根拠確認率など)を置くと改善につながります。四半期ごとに指標やルール、教育資料を見直し、改善サイクルを回します。
出典:NIST「AI RMF 1.0」日本語版PDF
出典:ISO/IEC 42001(AIMSの継続的改善)
データ・モデル・運用での主要リスク対応
プライバシーとデータ管理
個人情報や機微情報は原文入力を避け、匿名化・仮名化・要約を利用します。クラウドや外部ベンダーを利用する場合は、データの保管場所(リージョン)、保持・削除条件、学習利用の有無、再委託管理を契約に盛り込みます。ログは必要最小限とし、短期保存と暗号化を徹底します。
公平性・説明可能性・記録
データの偏りや属性別の誤判定率を継続監視し、許容範囲と是正手順をあらかじめ決めます。説明可能性は「実務に必要な範囲で理解できること」を重視します。
評価結果や限界、前提条件はモデルカードやデータシートに整理し、変更履歴とあわせて追跡可能にします。
セキュリティとサプライチェーン
生成AI固有の脅威には、プロンプト注入、出力の無害化不足、学習データ汚染、モデルDoS、依存モジュールの脆弱性などがあります。入力経路はサンドボックス化し、出力はポリシーチェックやエスケープ処理で無害化します。
依存パッケージは定期的に脆弱性管理し、権限は最小にします。『OWASP LLM Top 10』をチェックリスト化して使うと漏れを防げます。
出典:経産省『AI事業者ガイドライン(第1.1版)別添』PDF
出典:OWASP「Top 10 for LLM Applications」
出典:OWASP GenAI Security(2025年版リスク)
法規制と適合:EU AI Actと国内指針への接続
EU AI Actの適用スケジュールの要点
EU AI Actは2024年8月に施行され、段階的に適用が広がっています。禁止用途とAIリテラシーは2025年2月、汎用AI(GPAI)の義務は2025年8月、多くの高リスクAIは2026年8月以降に本格適用されます。
欧州委員会はスケジュールを堅持しており、延期は想定されていません。
出典:European Commission「AI Act」
出典:Reuters「EUはAI法の実施スケジュールを堅持」
国内『AI事業者ガイドライン』との整合
国内の『AI事業者ガイドライン(第1.1版)』は、開発・提供・利用の各主体に求められる取り組みを示しています。別添資料では、データ移転、保持・削除、再委託、契約時の留意点まで詳細に解説されています。
EU向け案件では、AI Actにおける「provider(提供者)」「deployer(展開者)」の切り分けを確認し、国内との違いを台帳化して管理しておくと安全です。
出典:経済産業省「AI事業者ガイドライン(概要)」PDF
出典:経済産業省「AI事業者ガイドライン(別添)」PDF
ドキュメント化と監査対応
必要な文書は審査票、モデルカード、データシート、変更管理記録、ログ設計です。EU案件ではAI Actの条項との対応を、国内案件ではガイドラインの参照箇所を明示します。監査では判断根拠とフォロー期限を追跡できることが重視されます。
さらに、GPAI関連の補足指針は継続的に更新されているため、定期的に情報収集を行う担当者を置くことが望まれます。
出典:European Commission「AI Act」タイムライン
まとめ(定着のコツ)
AIリスク管理フレームワークを定着させるには、まずスコープと責任分担を明確にし、NISTやISOの語彙に合わせてプロセスを設計することが重要です。そのうえで、記録とKPIを基盤に運用を回すと、継続的に改善できます。
規格は共通言語として活用し、EU AI Actは外部規制として押さえます。実務では「見える化(ダッシュボード)」「守る(アクセス・送信先制限)」「残す(監査ログ)」を柱に据えると効果的です。四半期ごとの見直しで文書・教育・システムを更新し続けることが、リスクと価値のバランスを保ち続ける近道です。
BizShareTV
仕事に役立つ動画はここにある
いつでも、どこでも、無料で見放題
