ADICとEU AI Act――AIガバナンスに欠けていた「証拠連鎖」完全マッピング
- kanna qed
- 2 日前
- 読了時間: 15分
前提:比較の軸と競合の構造
ADICの強みは「個別条文の最適化」ではなく、法対応に必要な証拠の鎖を単一の検証系に閉じる統合性にある。
重要留保:ADICの優位性は「統治境界の強制点として設計に明示的に組み込んだシステム」に限り成立する。外付け監査ラッパーとして使用した場合は各条文への貢献は断片的になる。
競合の正確な4レイヤー分類
本マッピングでは競合を以下4レイヤーに正確に分類する。前バージョンはこの粒度が混線していたため全面的に整理し直した。
レイヤー | カテゴリ | 主要製品・ツール |
L1 | 専業AIガバナンス・ライフサイクル管理 | ModelOp, Collibra AI Governance, Monitaur, Credo AI, Holistic AI, DataRobot AI Governance |
L2 | AIセキュリティ・Agent Governance・Observability | Protect AI, HiddenLayer, Lakera, F5 AI Guardrails, Arthur AI |
L3 | データ・AIカタログ・リネージ・GRC統合 | Databricks Unity Catalog, Microsoft Purview, IBM OpenPages, ServiceNow AI Governance, OneTrust |
L4 | アシュアランス・認証機関・管理システム標準 | ISO/IEC 42001, BSI, DNV, SGS, TÜV SÜD, Bureau Veritas |
参照 | XAI・公平性・形式検証・MLOps(比較参照用) | SHAP/LIME/InterpretML, IBM AIF360/Fairlearn, Gappa/FPTaylor/PRECiSA, MLflow/W&B/IBM FactSheets |
Arthur AIの位置づけ変更(前バージョンからの修正):前バージョンでArthurを「適合性評価側」に配置していたが誤りだった。2025年にArthurはAgent Discovery and Governance(ADG)Platformをリリースし、agent observability・policy enforcement・guardrails・security中心に明確に軸足を移した。L2に再配置する。
条文別競合完全マッピング
Art.9:リスク管理システム
核心:ライフサイクル全体の継続的リスク識別・評価・軽減・残留リスク管理の制度化
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp | ◎ | AI inventoryと連動したリスクスコアリング・ライフサイクル全体のリスク管理自動化 |
L1 | Collibra AI Governance | ◎ | EU AI Act対応アセスメント機能を提供。ISO 42001認証を取得(2025年1月公表)。リスクアセスメント・継続管理 |
L1 | Monitaur | ◎ | 保険・金融等規制産業向け。audit-ready governance・policy-to-proof管理 |
L1 | Credo AI | ◎ | Policy Packによる継続評価。規制横断コンプライアンス管理 |
L3 | IBM OpenPages | ◎ | GRC統合プラットフォームとしてリスク管理サイクルを制度化 |
L3 | ServiceNow AI Governance | ◎ | リスク管理ワークフロー自動化・エスカレーション管理 |
ADIC | △ 補完 | 軽減措置の技術的根拠として機能するが、リスク管理サイクルの制度化・継続運用はL1/L3ツールの領域。競合ではなく補完 |
Art.10:データガバナンス
核心:訓練・検証データの品質・代表性・バイアス管理
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L3 | Databricks Unity Catalog | ◎ | data+AI lineage・カタログ・データガバナンスの統合。Art.10・11・12との親和性が高い |
L3 | Microsoft Purview | ◎ | データセキュリティ・ガバナンス・コンプライアンスの統合。主軸はdata governance |
L1 | Collibra AI Governance | ◎ | data catalog+AI governance統合。データ系譜・品質・AI利用の一元管理 |
参照 | IBM AI Fairness 360 | ◎ | バイアス検出・軽減の包括的ライブラリ |
参照 | Microsoft Fairlearn | ◎ | 公平性指標・軽減アルゴリズム |
参照 | Amazon SageMaker Clarify | ◎ | データバイアス・モデルバイアスの検出 |
ADIC | — 非該当 | データ品質・代表性・バイアスは完全に対象外。プリミティブコア上の計算安全性を扱う技術 |
Art.11:技術文書
核心:設計・アルゴリズム・検証方法・性能限界を含む一貫した技術文書の作成・維持。第三者審査に耐える証拠一貫性
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp | ○ | モデルカード自動生成・メタデータ・証拠キャプチャ。後付け文書生成 |
L1 | Collibra AI Governance | ○ | AI系譜・設計文書化・コンプライアンス文書管理 |
L1 | Credo AI | ○ | モデルカード・影響評価・ベンダーリスク評価の audit-ready artifacts |
L3 | Databricks Unity Catalog | ○ | データ・モデルのリネージ文書化 |
参照 | IBM FactSheets / watsonx.governance | ○ | モデル事実・性能・意図の構造化文書。後付け説明ドキュメント |
参照 | Google Model Cards | ○ | モデル性能・限界の標準化文書テンプレート。後付け説明ドキュメント |
参照 | W&B / MLflow | ○ | 実験・モデルのバージョン管理・再現性支援 |
ADIC | ⭐ 最強 | 証明書(certificate)構造そのものが技術文書の核。他ツールは「検証後に文書を生成」するが、ADICは「検証プロセス自体が文書として機能」する。realized ledger・整数証人・仕様制約が設計・検証方法・性能境界を同時に記録する。「後から説明を付ける」系ではなく「通した理由を後から再実行できる」系 |
ADICの決定的差異:文書の生成手段ではなく、検証行為と文書が同一であること。
Art.12:ログ記録・追跡可能性
核心:稼働期間全体の自動ログ・判定根拠の事後的追跡可能性。risk管理・substantial modification・post-market monitoring・deployer monitoringへの活用
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L2 | Arthur AI | ○ | agent observability・full trace visualization・tool selection evaluation。ただし「何が起きたか」の可観測性ログ |
L2 | Fiddler AI | ○ | 説明可能性付きモデル監視ログ・guardrails |
L1 | Monitaur | ○ | 監査証跡・model traceability |
L3 | Databricks Unity Catalog | ○ | data lineage・AI操作のログ記録 |
参照 | Evidently AI / WhyLabs / Arize AI | ○ | 自動監視ログ・ドリフト検知記録 |
参照 | W&B / MLflow | △ | 実験ログ・アーティファクト管理 |
ADIC | ⭐ 最強 | realized ledgerは単なるログではなく「判定根拠を第三者が再実行できる記録」。他ツールのログは「何が起きたか」の記録。ADICのledgerは「なぜACCEPTされたかを、第三者が同じ検証器を回して独立に再現できる記録」。Art.12が求める追跡可能性の質が構造的に異なる |
ADICの決定的差異:deterministic replayによる再実行可能性が、単なる記録との本質的差異。
Art.13:透明性・利用者への情報提供
核心:deployerがシステムの能力・限界・適切な用途を理解して運用できる情報提供
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp / Credo AI | ○ | AI能力・限界の構造化情報提供 |
L1 | Collibra AI Governance | ○ | AI利用の透明性・説明文書 |
参照 | SHAP / LIME / InterpretML | ◎ | 個別予測根拠の利用者向け可視化 |
参照 | Google Vertex AI Explainability | ◎ | クラウドネイティブな説明可能性 |
参照 | IBM Watson OpenScale / watsonx.governance | ○ | バイアス・精度の透明性ダッシュボード |
ADIC | △ 補完(間接) | 運用境界の形式的定義(どの入力範囲でどの制約を満たすか)がdeployer向け情報提供の技術的根拠になる。「このシステムはこの境界内でこの仕様を満たすことが証明されている」という明確な限界の提示がArt.13要件の基礎として機能。ただし利用者向けUIや説明文書はADICの外側 |
Art.14:人間による監督
核心:人間が出力を適切に解釈し、監督・停止・介入できる設計。human-machine interfaceを含む実効的監督
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp | ○ | ガバナンスワークフロー上の人間承認・エスカレーション |
L1 | Credo AI / Monitaur | ○ | Human-in-the-loopポリシー管理・承認ゲート |
L3 | ServiceNow AI Governance | ○ | 人間監督ワークフロー・停止機構の制度化 |
L2 | Arthur AI | △ | guardrailsによる異常検知→人間アラート |
L2 | Lakera / Protect AI | △ | runtime defense→介入トリガー |
ADIC | 💪 強い(設計次第) | ACCEPT/REJECT構造が人間介入点を技術的に定義する。「ADICで固定された境界を通った出力だけを採用する」設計では、REJECTが自動的に人間介入トリガーとなり、Art.14の実効的監督を技術的に実装できる。他ツールが「介入できる仕組みのUI・ワークフロー」を提供するのに対し、ADICは「介入が必要なタイミングを形式的に定義する」基盤を提供する |
Art.15:精度・堅牢性・サイバーセキュリティ
核心:ライフサイクル全体での適切な精度・エラー耐性・サイバーセキュリティの実現
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L2 | Protect AI | ◎ | AIモデル・パイプラインのセキュリティ脆弱性スキャン・攻撃シミュレーション |
L2 | HiddenLayer | ◎ | 敵対的攻撃のリアルタイム検知・モデル盗難・データポイズニング防御 |
L2 | Lakera | ◎ | LLMアプリのプロンプトインジェクション・データ漏洩・ジェイルブレーク防御 |
L2 | F5 AI Guardrails | ◎ | AIアプリケーション向けruntime guardrails・セキュリティ制御 |
L2 | Arthur AI | ○ | guardrails・adversarial detection・agent security |
参照 | Gappa / FPTaylor | ◎ | 浮動小数点誤差の形式的証明(数値精度に特化) |
参照 | PRECiSA(NASA)/ VCFloat2(Coq) | ◎ | 形式的浮動小数点プログラム検証 |
参照 | Marabou / α-β-CROWN | ◎ | ニューラルネット性質の形式検証 |
参照 | Evidently AI / Arize AI | ○ | 性能劣化・ドリフト・堅牢性の運用監視 |
ADIC | 🔧 補完(証拠化に強い) | 固定プリミティブコア上の数値安全性の証拠化に強い。Gappa等との差異はsolver依存なし・deterministic replay・ground integerへの閉包。ただしArt.15が要求するライフサイクル全体の実体性能(特にサイバーセキュリティ)はL2ツールが担う。「証拠化における強い補完」が正確な位置づけ |
修正(前バージョンからの変更):Art.15を「最強」から「補完(証拠化に強い)」に変更。Art.15はライフサイクル全体の実体性能要求であり、ADICのreplay・ledger・certificateだけでは閉じない。
Art.17:品質管理システム(QMS)
核心:設計から市場投入後までをカバーする文書化されたQMSの維持
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L4 | ISO/IEC 42001(BSI・DNV・SGS・TÜV SÜD認証) | ◎ | AI管理システムの唯一の認証可能な国際標準。EU AI Actは「Rulebook」、ISO 42001は「Operating System」として位置づけられる。PDCA構造でQMS全体を制度化 |
L1 | ModelOp | ◎ | ライフサイクル全体のガバナンスワークフロー自動化・QMS基盤 |
L3 | IBM OpenPages / ServiceNow | ○ | QMSワークフロー・変更管理の自動化 |
L3 | OneTrust | ○ | QMS文書化・コンプライアンス追跡 |
ADIC | △ 補完 | 検証体制の技術的基盤として機能するが、QMS全体(組織体制・変更管理・教育訓練・継続改善サイクル)はISO 42001とL1/L3ツールの領域 |
Art.18:文書保管義務
核心:適合性評価のための文書の適切期間保管
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp / Collibra | ○ | ライフサイクル全体の文書保管・バージョン管理 |
L3 | IBM OpenPages / Microsoft Purview | ○ | 文書ライフサイクル管理・保管体制 |
参照 | W&B / MLflow | ○ | モデルアーティファクト・実験ログの長期保管 |
ADIC | △ 補完 | realized ledgerの保管が証拠として直接機能するが、保管インフラ・ライフサイクル管理はADICの外側 |
Art.19:自動生成ログの保持
核心:高リスクAIの自動的ログ記録機能・適切期間の保持
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L2 | Arthur AI | ○ | agent lifecycle全体の自動ログ・telemetry収集 |
L1 | Monitaur / ModelOp | ○ | 自動ガバナンスログ・監査証跡 |
参照 | Evidently AI / WhyLabs / Arize AI | ○ | 自動可観測性ログ・アラート |
ADIC | 💪 強い | realized ledgerが設計上「自動生成される再実行可能な証拠記録」。Art.19が求める自動ログの要件を、単なる記録ではなく「第三者が再検証できる証拠」として満たす |
Art.20:是正措置・インシデント報告
核心:重大インシデントの検知・是正措置・報告
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp / Credo AI | ○ | インシデント管理ワークフロー・是正措置追跡 |
L3 | IBM OpenPages / ServiceNow | ○ | インシデント管理・エスカレーション・報告ワークフロー |
L2 | Arthur AI / Arize AI | △ | 異常検知→インシデントトリガー |
ADIC | △ 補完 | REJECT記録がインシデントの技術的証拠として機能。「なぜ境界を逸脱したか」の根拠をledgerから追跡可能 |
Art.21:当局との協力
核心:市場監視当局への技術文書・情報提供・協力
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L4 | BSI / DNV / TÜV SÜD | ○ | 認証機関として当局との関係を橋渡し |
L1 | ModelOp / Credo AI | △ | コンプライアンス証拠の開示・管理 |
ADIC | △ 補完 | ledgerが当局提出証拠として機能。deterministic replayにより当局が独立検証可能 |
Art.25:責任分界(AIバリューチェーン)
核心:provider・deployer間の法的責任の再配分・明確化
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp | ○ | provider/deployer役割定義・ガバナンス責任の明確化 |
L3 | ServiceNow / OneTrust | △ | 責任分界の契約・文書管理 |
ADIC | △ 補完 | 運用境界の明示的固定が責任分界の技術的根拠。「この境界を通過した出力を採用した」という記録がprovider/deployer間の責任証拠として機能 |
Art.26:deployerの義務(監視・報告)
核心:deployerによる継続的監視・substantial modificationの報告
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | Monitaur / Credo AI | ○ | deployer向けガバナンス・監視義務支援 |
参照 | Evidently AI / Arize AI | ○ | deployer向け本番監視 |
ADIC | △ 補完 | 境界通過記録がdeployer監視・報告の技術的基盤 |
Art.27:基本権影響評価(FRIA)
核心:高リスクAI deployerによる基本権への影響評価
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | Credo AI / Holistic AI | ○ | 影響評価フレームワーク・倫理審査支援 |
L3 | OneTrust | ○ | FRIA文書化・プロセス管理 |
ADIC | 🔲 原則別レイヤー | 基本権への影響評価はADICの対象外 |
Art.43:適合性評価手続
核心:第三者審査に耐える適合性証拠の提示・Notified Bodyによる審査
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L4 | TÜV SÜD / Bureau Veritas | ◎ | Notified Bodyとして適合性評価を実施する側 |
L4 | BSI / DNV / SGS | ◎ | ISO 42001認証機関。Art.43との相乗効果が高い |
L1 | Credo AI / Holistic AI | ○ | 適合性エビデンス管理・評価支援 |
L1 | ModelOp | △ | 適合性文書管理 |
ADIC | 💪 強い | ledgerが第三者審査証拠の核として機能。TÜV等の評価機関が求める「独立再現可能な検証証拠」をdeterministic replayにより提供。評価機関ツールとの競合ではなく、評価機関に提出する証拠の質を根本的に高める |
Art.47:EU適合宣言
レイヤー | 製品・ツール | 対応強度 |
L4 | BSI / DNV / TÜV SÜD(ISO 42001) | ○ |
L1 | ModelOp / Credo AI | △ |
ADIC | △ 補完(技術文書整備の基盤) |
Art.50:AI生成コンテンツ開示・透明性義務
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L2 | Lakera / HiddenLayer | △ | AI生成コンテンツの検出・ラベリング支援 |
ADIC | 🔲 原則別レイヤー | ADICの本質とは別。ただしシステム構成によっては出力境界管理として間接的に関係しうる |
Art.53:汎用AIモデル(GPAI)提供者の義務
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp / Collibra | ○ | GPAI model inventoryと義務管理 |
L4 | ISO 42001(BSI・DNV) | ○ | GPAI向けAI管理システム |
ADIC | 🔲 原則別レイヤー | ADICのプリミティブコア制約により現時点ではGPAIモデル自体の中核証明には非該当。ただしGPAIを組み込んだシステムのsystem layerにおける境界管理として間接的に関係しうる |
Art.72:市場投入後監視計画
核心:市販後の継続適合確認・稼働データの能動的収集分析・Chapter III Section 2への継続適合
レイヤー | 製品・ツール | 対応強度 | 対応の性質 |
L1 | ModelOp | ◎ | ライフサイクル全体の継続監視・市販後ガバナンス |
L1 | Monitaur | ◎ | ongoing review・継続適合確認 |
参照 | Evidently AI / WhyLabs / Arize AI / Fiddler AI | ◎ | ドリフト検知・性能劣化・本番監視 |
L2 | Arthur AI | ○ | agent lifecycle継続監視・evals |
ADIC | 💪 強い | ledger・evidence chain・境界記録が市販後の継続適合確認と高い親和性。「境界を通過した記録」が市販後監視の技術的基準線となり、逸脱検知の根拠になる。Art.72は技術文書の一部として監視計画を要求しており、ADICの証拠構造はその技術的基盤として機能する |
Art.73:重大インシデント報告
レイヤー | 製品・ツール | 対応強度 |
L3 | IBM OpenPages / ServiceNow | ○ |
L1 | ModelOp | ○ |
ADIC | △ 補完(REJECT記録がインシデント証拠として機能) |
全体サマリー:条文×競合レイヤーマトリクス
凡例:⭐最強 💪強い 🔧補完(強) △補完 🔲別レイヤー —非該当
競合レイヤー:L1=専業Govプラットフォーム / L2=AI Security・Agent Gov
L3=データ・GRC統合 / L4=認証・管理システム標準
L1 L2 L3 L4 ADIC
専業Gov AI Sec. データ/GRC 認証/標準
Art.9 リスク管理 ◎ — ◎ ○ △補完
Art.10 データ ◎ — ◎ — —非該当
Art.11 技術文書 ○ — ○ ○ ⭐最強
Art.12 ログ ○ ○ ○ — ⭐最強
Art.13 透明性 ○ △ — — △補完
Art.14 人間監督 ○ △ ○ — 💪設計次第
Art.15 精度・堅牢 ○ ◎ — ○ 🔧補完
Art.17 QMS ◎ — ○ ◎ △補完
Art.18 文書保管 ○ — ○ — △補完
Art.19 自動ログ ○ ○ ○ — 💪強い
Art.20 是正措置 ○ △ ○ — △補完
Art.21 当局協力 △ — — ○ △補完
Art.25 責任分界 ○ — △ — △補完
Art.26 deployer ○ — — — △補完
Art.27 FRIA ○ — ○ — 🔲別レイヤー
Art.43 適合性評価 △ — — ◎ 💪強い
Art.47 適合宣言 △ — — ○ △補完
Art.50 透明性開示 — △ — — 🔲別レイヤー
Art.53 GPAI ○ — — ○ 🔲別レイヤー
Art.72 市販後監視 ◎ ○ — — 💪強い
Art.73 インシデント ○ △ ○ — △補完
ADICの位置づけ:強度別最終サマリー(修正版)
⭐ 最強(他手段で代替困難)
Art.11 技術文書
← 公知の主要競合群の中では代替が見当たりにくい構造:検証行為そのものが文書として機能する
Art.12 ログ・追跡可能性
← 公知の主要競合群の中では最も強い証拠形式の一つ:第三者がdeterministic replayで独立再現できる
💪 強い(設計次第で最強に近づく)
Art.14 人間監督
← ACCEPT/REJECTが介入点を技術的に定義(設計への明示的組込みが条件)
Art.19 自動生成ログ
← ledgerが自動生成される再実行可能証拠として機能
Art.43 適合性評価証拠
← 第三者審査への提出証拠の質を根本的に高める
Art.72 市場投入後監視
← 継続適合確認の技術的基準線として機能
🔧 補完(証拠化の観点で有効)
Art.9 リスク管理(軽減措置の技術的根拠)
Art.13 透明性(運用境界明示が情報提供の根拠)
Art.15 精度・堅牢性(数値安全性の証拠化に強い)
Art.17 QMS(検証体制の技術的基盤)
Art.18 文書保管(ledger保管が証拠として機能)
Art.20 是正措置(REJECT記録がトリガー・証拠として機能)
Art.21 当局協力(ledgerが提出証拠として機能)
Art.25 責任分界(境界記録が証拠基盤)
Art.26 deployer監視(境界記録が報告基盤)
Art.47 EU適合宣言(技術文書整備の基盤)
Art.73 インシデント報告(REJECT記録がインシデント証拠)
🔲 原則別レイヤー(ADICの本質外・システム構成次第で間接関係)
Art.10 データガバナンス
Art.27 基本権影響評価
Art.50 AI生成コンテンツ開示
Art.53 GPAIモデル義務
— 非該当(制度的・手続的条文)
Art.1-5(定義・禁止慣行)
Art.22-24(輸入者・販売者義務)
Art.40-41(調和規格・共通仕様)
Art.44(適合性証明書手続き)
Art.55(システミックリスク追加義務)等
ADICが「最強」である構造的理由の核心
他ツールはそれぞれの条文要件に対する「部品」として機能するが、ADICは複数条文にまたがる義務を単一の証拠連鎖として接続できる。
事前定義の統治境界・仕様制約(Art.11:技術文書の核)
↓
実行時の自動生成realized ledger(Art.12・19:再実行可能ログ)
↓
ACCEPT/REJECTによる介入点の技術的定義(Art.14:人間監督の実効化)
↓
第三者がdeterministic replayで独立再現できる適合性証拠(Art.43:審査証拠)
↓
市販後の継続適合確認基盤(Art.72:市場投入後監視)
少なくとも公知の主要競合製品群の中では、Art.11・12・14・19・43・72を単一の再検証可能な証拠連鎖として閉じている製品は見当たりにくい。
推奨統合スタック(ADICを中核に据える場合)
役割 | 担当ツール | ADICとの関係 |
AI inventory・ライフサイクル管理 | ModelOp / Collibra AI Governance | ADICのledgerがinventory証拠として連携 |
ISO 42001認証・QMS基盤 | BSI / DNV / SGS(ISO 42001) | ADICの証拠構造がQMS技術文書の核として機能 |
データ・バイアス管理 | Collibra / Databricks Unity Catalog / IBM AIF360 | ADICと独立した別レイヤー(Art.10) |
AIセキュリティ・Agentガバナンス | Protect AI / HiddenLayer / Arthur AI | ADICが定義した境界の外側でセキュリティ防御を担う |
技術文書・証拠連鎖の中核 | ADIC | Art.11・12・14・19・43・72を統合する証拠基盤 |
説明可能性・透明性 | SHAP / LIME / IBM watsonx.governance | ADICが定義した境界内での説明提供 |
運用監視・市販後監視 | Evidently AI / Arize AI / WhyLabs | ADICの境界記録を基準線として活用 |
適合性評価審査 | TÜV SÜD / Bureau Veritas | ADICのledgerを審査証拠として提出 |
リスク管理・GRC | ServiceNow AI Governance / OneTrust | ADICの軽減措置証拠をリスク台帳に統合 |
本ドキュメントはADIC論文(Maeki, 2026)、EU AI Act条文(2024/1689)、AI Act Service Desk、各製品の2025〜2026年公開情報、およびISO/IEC 42001関連資料に基づく分析である。EU AI Actは2024年8月1日に発効し、主要規定の多くは2026年8月2日から適用される。高リスクAIのうちAnnex IIIは同日から、規制対象製品に組み込まれた高リスクAIは2027年8月2日から適用される。Notified Bodyによる実際の適合性評価判例は現時点では未成熟である点にも留意されたい。


![EU AI Act Compliance Doesn’t End with “Explanations”: High-Risk AI Requires Implementing Evidence [Slides Available]](https://static.wixstatic.com/media/47b62c_bcdcf9c91b4c4f0bb588a4de1bf8c3ad~mv2.png/v1/fill/w_980,h_551,al_c,q_90,usm_0.66_1.00_0.01,enc_avif,quality_auto/47b62c_bcdcf9c91b4c4f0bb588a4de1bf8c3ad~mv2.png)

コメント