実務で使えるAIリスク管理フレームワーク—NIST・ISO・EU規制対応まで(2025)

実務で使えるAIリスク管理フレームワーク—NIST・ISO・EU規制対応まで(2025)
5分で読了
AIリスク管理フレームワークは、AIを組織で安全に使い続けるための「基盤」となる仕組みです。本稿では、方針づくりから評価・監査までを一気通貫で整理し、現場で回るプロセスとして定着させる方法を解説します。 取り上げるのは、国際的に参照される『NIST AI RMF』『ISO/IEC 23894』『ISO/IEC 42001』『OECD AI原則』の4つ。これらを横断的に比較しつつ、EU AI Actの移行スケジュールとの橋渡しも押さえます。短いステップと再現可能な様式で固め、担当者が迷わず動ける仕組みを描きます。

AIリスク管理フレームワークの基本(目的・範囲・用語)

定義と対象範囲の切り分け

最初に決めるべきは「何を対象にするか」です。社外SaaSやAPI連携、自社ホスト型(閉域環境)を含めるかどうか。さらに、自社の立場を「利用者」「開発者」「提供者」のどこに置くのかを明確にしなければなりません。

対象を曖昧にしたまま進めると、承認や責任の線引きが揺らぎ、実務が滞ります。用途は以下の三層に分けると整理しやすくなります。

  • 標準利用(承認不要)

  • 申請必須(利用前に承認が必要)

  • 禁止(利用不可)

管理対象は「入力データ」「出力物」「ログ」の3つに分けると迷いが減ります。参照軸として『NIST AI RMF 1.0』を採用すると、用語や観点が統一され、社内の意思決定がスムーズになります。

出典:NIST「AI Risk Management Framework(AI RMF 1.0)」日本語版PDF

リスクと影響の軸をどう置くか

一般的にリスクは「発生確率 × 影響度」で表されますが、AIではこれだけでは足りません。安全性・プライバシー・公平性・セキュリティ・説明可能性・社会的影響といった軸を並行して評価する必要があります。

実務では、まず「低・中・高」の三段階評価から始めるのが現実的です。

数値化できる指標(誤判定率、レビュー手戻り率など)を少しずつ増やしていき、改善の優先度を明確にします。規格の語彙に寄せると、部門間の合意形成が進みやすく、『OECD AI原則』は価値基盤を整理するのに有効です。

出典:OECD「AI Principles」

体制と責任の配置(経営〜現場)

体制は「経営」「横断的な審査」「現場運用」の3層で組みます。中心となる役割は次の3つです。

  • 情報管理:データ分類と持ち出し基準

  • 安全性評価:モデルや出力の安全対策

  • 契約管理:データ利用条項や再委託管理

責任者と承認ルートを明記し、曖昧さを残さないことが重要です。方針・標準・手順・様式の文書を揃え、四半期ごとに更新するリズムを持たせれば、仕組みは定着します。『ISO/IEC 42001』はこの循環をAIマネジメントシステム(AIMS)として定着させる規格です。

出典:ISO公式「ISO/IEC 42001」

主要フレームワークの比較(NIST/ISO/OECD)

NIST AI RMFの使いどころ

『NIST AI RMF 1.0』は任意で適用できる実務ガイドです。設計・開発・運用の各フェーズでリスクを洗い出し、対応策とモニタリングに落とし込むことを目的としています。

特徴は、部門横断で合意しやすい観点整理と「成果物よりもプロセスの再現性を重視する」点です。既存のセキュリティや品質基準と並走しやすく、既存ガバナンスに「AIの視点」を加える役割を果たします。

ISO/IEC 23894の要点

『ISO/IEC 23894:2023』は、AIに特化したリスク管理の国際規格です。ISO 31000を基盤に、AIライフサイクル全体を通じて「識別・分析・評価・対応・モニタリング」を回す手順を示しています。

NIST RMFに比べて文書化の粒度が高く、リスク受容水準や責任分担を明文化するのに適しています。規格の言葉に揃えることで監査や外部説明も通しやすくなります。

ISO/IEC 42001との関係

『ISO/IEC 42001』はAIマネジメントシステム(AIMS)の要求事項を定めた規格です。AI RMFやISO 23894で設計したプロセスを、方針・責任・教育・監査・継続改善の枠に固定化します。既存のISMSや品質マネジメントと統合しやすいのも特徴です。

出典:NIST「AI RMF」概要
出典:ISO/IEC 23894(概要)
出典:ISO/IEC 42001(概要)

AIリスク管理フレームワーク:プロセス設計(識別→評価→対応→監視)

リスク識別とスコーピング

ユースケース、データ種別(公開・社外秘・機密)、モデル種別(汎用・専用・自社学習)、影響領域(顧客・従業員・社会)を整理します。

さらに「自社が利用者・開発者・提供者のどの立場にあるか」「どの段階で意思決定が発生するか」を明確にすると、審査や記録の抜け漏れを防げます。

評価とTEVV(テスト・評価・検証・妥当性確認)

モデル更新やデータ差し替えの際は、回帰試験をあらかじめ定義します。想定外入力への耐性や出力の妥当性検証も含めます。

評価指標は誤判定率や再現性といった数値だけでなく、説明可能性や人による監督もカバーします。『NIST AI RMF』はTEVVを整理する際の出発点として有効で、結果はモデルカードに反映させます。

対応策・モニタリングと見直し

リスク対応は「回避・低減・移転・受容」のいずれかに落とし込みます。運用では入力や出力の異常、外向き通信の急増、失敗率の上昇を監視し、閾値を超えたらアラートを出す仕組みを作ります。

KPIは現場の数字(レビュー手戻り率や根拠確認率など)を置くと改善につながります。四半期ごとに指標やルール、教育資料を見直し、改善サイクルを回します。

出典:NIST「AI RMF 1.0」日本語版PDF
出典:ISO/IEC 42001(AIMSの継続的改善)

データ・モデル・運用での主要リスク対応

プライバシーとデータ管理

個人情報や機微情報は原文入力を避け、匿名化・仮名化・要約を利用します。クラウドや外部ベンダーを利用する場合は、データの保管場所(リージョン)、保持・削除条件、学習利用の有無、再委託管理を契約に盛り込みます。ログは必要最小限とし、短期保存と暗号化を徹底します。

公平性・説明可能性・記録

データの偏りや属性別の誤判定率を継続監視し、許容範囲と是正手順をあらかじめ決めます。説明可能性は「実務に必要な範囲で理解できること」を重視します。

評価結果や限界、前提条件はモデルカードやデータシートに整理し、変更履歴とあわせて追跡可能にします。

セキュリティとサプライチェーン

生成AI固有の脅威には、プロンプト注入、出力の無害化不足、学習データ汚染、モデルDoS、依存モジュールの脆弱性などがあります。入力経路はサンドボックス化し、出力はポリシーチェックやエスケープ処理で無害化します。

依存パッケージは定期的に脆弱性管理し、権限は最小にします。『OWASP LLM Top 10』をチェックリスト化して使うと漏れを防げます。

出典:経産省『AI事業者ガイドライン(第1.1版)別添』PDF
出典:OWASP「Top 10 for LLM Applications」
出典:OWASP GenAI Security(2025年版リスク)

法規制と適合:EU AI Actと国内指針への接続

EU AI Actの適用スケジュールの要点

EU AI Actは2024年8月に施行され、段階的に適用が広がっています。禁止用途とAIリテラシーは2025年2月、汎用AI(GPAI)の義務は2025年8月、多くの高リスクAIは2026年8月以降に本格適用されます。

欧州委員会はスケジュールを堅持しており、延期は想定されていません。

出典:European Commission「AI Act」
出典:Reuters「EUはAI法の実施スケジュールを堅持」

国内『AI事業者ガイドライン』との整合

国内の『AI事業者ガイドライン(第1.1版)』は、開発・提供・利用の各主体に求められる取り組みを示しています。別添資料では、データ移転、保持・削除、再委託、契約時の留意点まで詳細に解説されています。

EU向け案件では、AI Actにおける「provider(提供者)」「deployer(展開者)」の切り分けを確認し、国内との違いを台帳化して管理しておくと安全です。

出典:経済産業省「AI事業者ガイドライン(概要)」PDF
出典:経済産業省「AI事業者ガイドライン(別添)」PDF

ドキュメント化と監査対応

必要な文書は審査票、モデルカード、データシート、変更管理記録、ログ設計です。EU案件ではAI Actの条項との対応を、国内案件ではガイドラインの参照箇所を明示します。監査では判断根拠とフォロー期限を追跡できることが重視されます。

さらに、GPAI関連の補足指針は継続的に更新されているため、定期的に情報収集を行う担当者を置くことが望まれます。

出典:European Commission「AI Act」タイムライン

まとめ(定着のコツ)

AIリスク管理フレームワークを定着させるには、まずスコープと責任分担を明確にし、NISTやISOの語彙に合わせてプロセスを設計することが重要です。そのうえで、記録とKPIを基盤に運用を回すと、継続的に改善できます。

規格は共通言語として活用し、EU AI Actは外部規制として押さえます。実務では「見える化(ダッシュボード)」「守る(アクセス・送信先制限)」「残す(監査ログ)」を柱に据えると効果的です。四半期ごとの見直しで文書・教育・システムを更新し続けることが、リスクと価値のバランスを保ち続ける近道です。

カテゴリー:IT・システム

BizShareTV

仕事に役立つ動画はここにある
いつでも、どこでも、無料で見放題

Laptop