top of page
All Posts


Google検索における「AI governance geo」の観測記録
2026年4月25日午前11時 日本時間 2026年4月25日午前11時頃、日本時間において、Googleで「ai governance geo」と検索した。 検索画面では、AIによる概要として、**AIガバナンスとGEO(Generative Engine Optimization:生成エンジン最適化)**に関する説明が表示されていた。 表示内容では、AIガバナンスとGEOについて、2025年〜2026年にかけて相互に連動する必須のデジタル戦略として浮上していると説明されていた。 また、従来の検索エンジン最適化(SEO)が検索結果での上位表示を目指すものであるのに対し、GEOは、AIが提示する「回答」の引用元となることを目指す考え方として説明されていた。 GEO(生成エンジン最適化)とは 検索画面上の説明では、GEOは、ChatGPT、Gemini、Copilot、GoogleのAI OverviewsなどのAI検索エンジンにおいて、自社の情報が正しく信頼できる情報源として引用されるための最適化手法とされていた。 目的としては、AIの回答に引用
kanna qed
7 時間前読了時間: 3分


ガバメントAI「源内」のOSS公開が示すもの——行政AIに必要な次の層は、責任と証拠連鎖である
前稿では、全府省庁の職員を対象としたガバメントAI「源内」の大規模実証が、日本におけるAIガバナンスを理念から「行政実務の内側の設計課題」へと移行させる狼煙であることを指摘した。 本稿では、その「源内」の一部がOSSとして公開された事実が示す、もう一つの重要な局面について掘り下げる。 2026年4月24日、デジタル庁はガバメントAI「源内」の一部を、商用利用可能なライセンスのもとで無償のOSSとして公開した。 公開対象には、源内のWebインターフェース部分のソースコードと構築手順、行政実務用RAGの開発テンプレート、LLMをセルフデプロイして利用する開発テンプレート、最新の法律条文データを参照して回答する法制度AIアプリの再現可能な実装が含まれている。 これは、行政AIが「試す段階」から、実務利用を見据えた段階へ移り始めたことを示している。 デジタル庁は、2026年度に全府省庁の約18万人の政府職員を対象としたガバメントAI「源内」の大規模実証を実施する。公式発表によれば、2026年5月から2027年3月までの予定で大規模実証を行い、2027年度
kanna qed
24 時間前読了時間: 3分


ガバメントAI「源内」は何を告げているのか——日本でもAIガバナンスが実装課題になる時代へ
2026年4月、デジタル庁はガバメントAI「源内」の一部を商用利用可能なOSSとして公開した。また、2026年度には全府省庁の約18万人の政府職員を対象とした大規模実証を実施することも予定されている。 この一連の動きは、単なる「行政のデジタル化」や「新しいツールの試験導入」という枠組みに収まるものではない。日本においても、AIガバナンスが、社会システムや行政実務の設計課題として本格的に扱われ始めたことを告げる、重要な狼煙である。 源内は「単なる生成AI導入」ではない これまで、多くの組織における生成AIの導入は、一部の先進的な部署による実験的な取り組みや、特定の業務効率化ツールとしての側面が強かった。 しかし、全府省庁の職員を対象とする「源内」の大規模実証は、政府職員がAIを「日常的な業務基盤」として扱う前提へとフェーズが移行したことを意味している。法制度の参照、文書検索、要約、各種手続きの案内など、行政実務を支える領域において、生成AIの活用が現実的な検討対象になっている。 AIガバナンスは“外からの規制”から“内側の設計”へ...
kanna qed
24 時間前読了時間: 3分


電子書籍『EU AI Act時代のAI実装ギャップ』をZennで公開しました
株式会社GhostDrift数理研究所は、Zennにて電子書籍『EU AI Act時代のAI実装ギャップ――ADICで埋める判断証跡の空白』を公開しました。 この数年で、EU AI Act、NIST AI RMF、ISO/IEC 42001、日本のAI事業者ガイドラインなど、AIに関する規制と標準は一気に出揃いました。ですが、それらを読み込んでも、現場にはなお一つの問いが残ります。 AIが実際に判断を下す瞬間に、その前提・根拠・通過条件・責任移転点を、後から第三者が再現できる形でどう残すのか。 本書は、この空白を「AI実装ギャップ」と捉え、その実装層をどう考えるべきかを整理した一冊です。 本書の立場は明確です。ADICは、EU AI Actの代替でも、NIST AI RMFの代替でも、ISO/IEC 42001の代替でもありません。規制と標準が必要であることを前提に、そのうえでなお残る「各判断の現場で何を残すべきか」という層をどう埋めるかを論じています。 今回公開したのは先行公開版です。第1章から第8章までで、AI規制と標準の全体像、各枠組みが扱
kanna qed
4 日前読了時間: 2分


ADIC and the EU AI Act: A Working Mapping of the "Evidence Chain" Missing in AI Governance
Premise: Axis of Comparison and Competitive Structure ADIC's strength lies not in the "optimization of individual articles," but in its integrative capacity to enclose the chain of evidence required for legal compliance within a single verification system. Important caveat: ADIC's distinctive value holds only when it is "explicitly incorporated into the system design as an enforcement point for governance boundaries." If used as an external audit wrapper, its contribution to
kanna qed
4 日前読了時間: 13分


ADIC is Not a Replacement for ISO/IEC 42001: Bridging the Implementation Gap in AI Management Systems
AI governance is transitioning from abstract principles to the construction of auditable management systems. ISO/IEC 42001, published in 2023 as the international standard for AI Management Systems (AIMS), requires organizations to establish frameworks for AI risk assessment, control, documentation, and continuous improvement. Furthermore, ISO/IEC 42006:2025—setting additional requirements for bodies providing audit and certification of AIMS—further clarifies the certificatio
kanna qed
4 日前読了時間: 2分


ADICはISO/IEC 42001の代替ではない——AIマネジメントシステム時代における実装補完としての位置づけ
AIガバナンスは今、単なる理念の宣言から、監査可能なマネジメントシステムの構築へとそのフェーズを移行している。2023年に発行されたISO/IEC 42001は、AIマネジメントシステム(AIMS)の国際標準として、組織に対してAIリスクの評価、統制、文書化、および継続的改善の枠組みを要求している。 さらに、2025年には監査・認証機関向けの追加要件であるISO/IEC 42006が公開され、第三者機関による認証を前提とした運用・監査の整理が進みつつある。組織は今後、AIの開発・提供・利用において、ガイドラインの遵守にとどまらず、証拠に基づく管理体制を対外的に証明していく段階に入る。 ▼ADICの詳細はこちら https://www.ghostdriftresearch.com/adic 組織標準が求めるガバナンスと、残された「実装」の空白 ISO/IEC 42001が対象とするのは、組織全体の運用枠組みである。同標準は、組織の文脈の理解、リーダーシップ、AI方針の策定、リスク管理、データガバナンス、監視・評価といったプロセスを規定している。..
kanna qed
5 日前読了時間: 3分


製薬業界の申請解析における「再現性の壁」をADICで突く — 臨床申請解析 証跡デモをリリースしました
TL;DR 申請解析に使われた条件・実装・変更履歴を固定し、審査照会・監査・再現要求に「その場で出せる」状態を作る実装基盤 ADIC の、製薬向けデモをリリースしました デモはブラウザで完結します。データ送信なし、インストール不要 「整合確認」と「変更検知(自動停止)」の2シナリオを体験できます → デモを試す → GitHubリポジトリ → 製薬向けADIC活用本 製薬業界で今、何が起きているか AI・機械学習が臨床開発に入ってきた結果、製薬企業の統計・薬事担当者は新しい種類の問題に直面しています。 精度の問題ではありません。 記録の問題 です。 実際に起きている3つの場面 場面1:申請後の再実行要求 NDA/BLA申請後、審査担当者から「同じ解析を再実行して結果を確認させてほしい」と連絡が来る。ここで担当者が直面するのは次の問いです。 申請時に使っていたモデルのバージョンはどれか そのバージョンのコードは今も同じ状態で保存されているか 乱数シードは固定されていたか 依存ライブラリのバージョンは記録されているか これらが揃っていなければ、「再
kanna qed
4月14日読了時間: 5分


Zenn出版のお知らせ|『製薬AI実用化の条件――審査・査察・品質判断を支える次世代基盤ADIC』を公開しました
GhostDrift Researchは、このたび Zenn にて 『製薬AI実用化の条件――審査・査察・品質判断を支える次世代基盤ADIC』 を出版しました。 ▼製薬AI実用化の条件――審査・査察・品質判断を支える次世代基盤ADIC https://zenn.dev/ghostdrift/books/57cc97de1c82a9 ▼ADICの詳細はこちら https://www.ghostdriftresearch.com/adic 製薬企業におけるAI導入が止まりやすい理由は、精度が足りないからではありません。PoCを終えた後、現場で本当に問われるのは、「この結果を申請や品質判断に使ってよいのか」「誰が、どの条件で承認し、どの記録と結びつけて運用するのか」という点です。 AUCや感度といった性能指標は重要です。しかし、それだけでは査察・申請・変更管理の現場に耐えることはできません。実際に問われるのは、AIの出力そのものではなく、 その出力がどの条件のもとで使われ、誰の判断で通され、どの証跡と連動していたのかが後から照合できるか です。...
kanna qed
4月14日読了時間: 2分


物流効率化法で荷主に載った責任を「固定」する:なぜADICが必要になるか
物流効率化法が荷主に求めたのは改善協力ではありません。自ら定めた条件について責任を持つことです。 改正法の施行により、荷主は単なる運送の発注者ではなくなりました。サプライチェーン全体の負荷を適正化するため、荷主自身が「条件を決める責任主体」として表舞台に立つことが法定されたのです。 物流効率化法は、荷主に改善努力を求めただけではありません。荷主が自ら設定した条件について、計画し、統括し、説明し、報告する責任主体になることを求めました。 問題は、その責任が通常の物流システムでは「見える化」されても「固定」はされないことです。普通のWMS/TMSや可視化基盤では、責任の境界線を後から動かせない形で担保することはできません。 ADIC(Algorithmic Dispute Inspection Contract)の意義は、荷主責任を理念ではなく、後から動かせない運用条件として固定する点にあります。 ▼ADICの詳細はこちら https://www.ghostdriftresearch.com/adic 第一部:物流効率化法は、荷主を“委託者”から“統
kanna qed
4月11日読了時間: 6分
![EU AI Act Compliance Doesn’t End with “Explanations”: High-Risk AI Requires Implementing Evidence [Slides Available]](https://static.wixstatic.com/media/47b62c_bcdcf9c91b4c4f0bb588a4de1bf8c3ad~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/47b62c_bcdcf9c91b4c4f0bb588a4de1bf8c3ad~mv2.webp)
![EU AI Act Compliance Doesn’t End with “Explanations”: High-Risk AI Requires Implementing Evidence [Slides Available]](https://static.wixstatic.com/media/47b62c_bcdcf9c91b4c4f0bb588a4de1bf8c3ad~mv2.png/v1/fill/w_454,h_341,fp_0.50_0.50,q_95,enc_avif,quality_auto/47b62c_bcdcf9c91b4c4f0bb588a4de1bf8c3ad~mv2.webp)
EU AI Act Compliance Doesn’t End with “Explanations”: High-Risk AI Requires Implementing Evidence [Slides Available]
EU AI Act compliance doesn’t end with listing policies and philosophies. What is truly required for high-risk AI is implementing risk management, technical documentation, logging, human oversight, conformity assessments, and post-market monitoring as an evidence structure demonstrable to third parties. The slides released today organize this entire picture on a practical, operational level. This material breaks down the key requirements for high-risk AI under the EU AI Act, a
kanna qed
4月11日読了時間: 2分


EU AI Act対応は“説明”では終わらない。高リスクAIに必要なのは、証拠まで実装すること【スライド公開】
EU AI Actへの対応は、方針や理念を並べることでは終わりません。高リスクAIで本当に問われるのは、リスク管理、技術文書、ログ記録、人間による監督、適合性評価、市場投入後監視までを、 第三者に示せる証拠構造として実装できているか です。今回公開したスライドは、その全体像を実務単位で整理したものです。 この資料では、EU AI Actの高リスクAIに関わる主要要件を、Art.9からArt.17まで一枚ずつ整理しています。どの条文で何が求められるのか、どの種のツールが必要なのか、そしてADICがどこで特に強く機能するのかを、実装観点で対応づけています。単なる法令要約ではなく、 実務で何を埋めなければならないのか を可視化するためのガイドです。 特に重要なのは、ADICの役割を過大に広げず、強い場所を明確に限定している点です。本資料では、Art.10のデータ品質・代表性・バイアス管理はADICの対象外と切り分けています。その一方で、Art.11の技術文書、Art.12のログ記録・追跡可能性については、ADICが特に強いと整理しています。理由は、検証
kanna qed
4月11日読了時間: 2分


ADICとEU AI Act――AIガバナンスに欠けていた「証拠連鎖」完全マッピング
前提:比較の軸と競合の構造 ADICの強みは「個別条文の最適化」ではなく、 法対応に必要な証拠の鎖を単一の検証系に閉じる統合性 にある。 重要留保 :ADICの優位性は「統治境界の強制点として設計に明示的に組み込んだシステム」に限り成立する。外付け監査ラッパーとして使用した場合は各条文への貢献は断片的になる。 ▶ADIC詳細はこちら 競合の正確な4レイヤー分類 本マッピングでは競合を以下4レイヤーに正確に分類する。前バージョンはこの粒度が混線していたため全面的に整理し直した。 レイヤー カテゴリ 主要製品・ツール L1 専業AIガバナンス・ライフサイクル管理 ModelOp, Collibra AI Governance, Monitaur, Credo AI, Holistic AI, DataRobot AI Governance L2 AIセキュリティ・Agent Governance・Observability Protect AI, HiddenLayer, Lakera, F5 AI Guardrails, Arthur AI L3.
kanna qed
4月11日読了時間: 15分


We Published the English Kindle Edition of AI Governance 101
GhostDrift Mathematical Institute has published the English Kindle edition of AI Governance 101 . Kindle: https://www.amazon.co.jp/dp/B0GWR6WL9N/ This book is based on the narration scripts from our AI Governance 101 YouTube playlist. We published it in book form so the content can also be read, cited, revisited, and retained as written text. Original YouTube playlist: https://youtube.com/playlist?list=PL5hlzaxtCe9_N4fKKqEAs045-FsOKZ2YN&si=TRd5ycWVWOg5kJA- If you have alread
kanna qed
4月10日読了時間: 1分


『AI Governance 101』英語版をKindleで出版しました
GhostDrift数理研究所は、このたび『AI Governance 101』の英語版をKindleで出版しました。 https://www.amazon.co.jp/dp/B0GWR6WL9N/ 本書は、これまでYouTubeで公開してきた AI Governance 101 プレイリストのナレーション原稿を、書き言葉として読める形にまとめた一冊です。動画として見られる内容を、文章として読み返し、参照し、記憶しやすい形にしたいと考え、書籍化しました。 そのため、すでにYouTubeプレイリストをご覧いただいている方は、本書をあらためて読む必要はありません。内容の中核は、公開済みのナレーション原稿をほぼそのまま反映したものだからです。今回あえて書籍として出版した理由は、動画の内容を「書き言葉として残すこと」にあります。 私たちがこのシリーズで一貫して扱ってきた主題は明確です。AIガバナンスは、理念やスローガンの問題ではありません。AIの出力をどの条件で通すのか、どこで止めるのか、責任分界をどう固定するのか、そして後から第三者が検証できる証拠を
kanna qed
4月10日読了時間: 2分


患者層別化AIをどう扱うべきか——製薬で責任が消えない運用条件(ADIC実用シリーズ 製薬編④)
患者層別化は、近年の臨床試験設計で最も重要な要素の一つになっている。どの患者に、どの治療が、どの程度効くかを事前に予測することが、試験効率と医薬品価値の両方に直結するからだ。AIを使った患者層別化は、この予測精度を大きく向上させる可能性を持つ。しかし製薬企業が忘れてはならないのは、層別化の判断が「患者の試験参加機会に関わる決定」であるという事実だ。AIが「この患者はレスポンダーではない」と判断したとき、その判断を根拠に試験参加を断った場合、その判断・承認・記録の責任は製薬企業と試験実施機関が負う。AIが出力したとしても、最終的な承認責任は人間が持つ。「AIがそう言ったから」は記録上の根拠として成立しない。 ▼ADICはこちら https:// www.ghostdriftresearch.com/adic ▼医療AIガバナンス基盤はこちら https:// www.ghostdriftresearch.com/medical-ai-governance 【対象成果物】この記事が扱う記録単位 本記事で扱うのは、患者層別化に関する以下の成果物セット
kanna qed
4月9日読了時間: 5分


なぜ製薬AIは「精度」だけでは足りないのか——審査・照会で問われる本当の条件(ADIC実用シリーズ 製薬編⑧)
「このモデルのAUCは0.95です」という報告を受けたとき、製薬企業の薬事担当者は何を確認しなければならないか。 精度指標は、モデルが過去のデータに対してどれほど正確だったかを示す。しかしそれは、「このモデルが申請に使えるか」という問いへの答えではない。薬事審査で問われるのは精度だけではない。 精度指標だけでは、再解析要求への対応、開発時と実運用時の差分説明、適用範囲逸脱時の停止管理、独立レビューに必要な入出力条件の文書化——これらに対応できない。これらへの対応力が、申請で実際に論点化しやすい条件だ。 【対象成果物】この記事が扱う記録単位 本記事で扱うのは、精度指標を申請証拠として補完する以下の成果物セットだ。 再現条件仕様書:モデルの再実行に必要なOS、ライブラリ版、乱数シード、設定ファイルを記述した文書 適用範囲記録:モデルが検証されたデータの分布情報と、実際の使用データの分布の継続的な比較記録 独立検証記録:外部検証者が同一条件で検証を実施するために必要な入出力条件と検証結果 この3点が揃うことで、「精度報告」が「照合可能な申請証拠」に近づ
kanna qed
4月9日読了時間: 5分


製薬AIで一番危ないのは何か——未承認変更と影響評価設計(ADIC実用シリーズ 製薬編⑦)
製薬AIのリスクを語るとき、モデルの精度やデータ品質が話題になることが多い。しかし実務担当者が実際に直面する最大のリスクは別のところにある。未承認変更だ。 未承認変更とは、変更管理プロセスを経ずにモデルが変更されること、あるいは変更として認識されないままモデルの動作が変化することだ。意図的なものから、無意識に行われるものまでさまざまある。しかしどちらにしても、QA内部監査や査察対応の場面では「変更管理がされていたか」という論点化につながりやすい。 これはAI固有の問題ではないが、AIが関与することで問題が見えにくくなる。人手で計算される統計解析なら、変更は文書の差し替えとして痕跡が残ることが多い。しかしAIモデルの「再学習」「パラメータ調整」「バージョン切り替え」は、技術的には記録なく行える。この点が製薬AIにおける最大の変更管理上のリスクだ。 【対象成果物】この記事が扱う記録単位 本記事で扱うのは、変更管理に関する以下の成果物セットだ。 変更要求記録:変更の種類(バグ修正・性能改善・適用範囲拡張)、変更理由、変更前後の仕様差分...
kanna qed
4月9日読了時間: 6分


製薬企業の品質判断にADICは使えるか——逸脱検知と放出判断の責任固定(ADIC実用シリーズ 製薬編⑥)
製造現場での品質判断は、製薬企業の中で最も厳格な規制管理下に置かれている領域だ。GMP(適正製造規範)は、製造プロセスの全段階を文書化し、逸脱が発生した場合は調査と是正措置を義務付ける。 AIを品質管理に活用しようとする動きは活発だ。製造ラインの異常検知、原材料試験の結果解析、製品の放出判断支援——こうした用途でのAI活用は、品質保証業務の効率化と精度向上を同時に実現できる可能性がある。 しかし品質判断にAIを組み込む際には、精度以上に重要な問いがある。「このAIの判断条件を、GMP品質記録の観点で後から照合できるか」という問いだ。AIが「このバッチは問題なし」と言ったとき——誰が確認し、いつ確認し、何を見て承認し、バッチ記録にどう結び付くか——その記録が整っているか。 【対象成果物】この記事が扱う記録単位 本記事で扱うのは、製造品質管理に関する以下の成果物セットだ。 逸脱記録:AIが逸脱を検出した条件、検出時刻、使用モデルの版、入力パラメータ値を含む記録 放出判断記録:AIの出力を確認した者(実行者)、確認内容、承認者、承認時刻、手動介入の有無
kanna qed
4月9日読了時間: 5分


臨床試験でAIを使うなら何を固定すべきか——組み入れ・判定・停止条件GhostDrift Research / ADIC 実用シリーズ(ADIC実用シリーズ 製薬編⑤)
臨床試験でAIを使う機会は増えている。スクリーニング、有効性判定、安全シグナル検出、中間解析——どの場面でもAIが入り込みつつある。しかし「使える」という判断と「試験に組み込める」という判断の間には、明確な差がある。 試験に組み込むとは、プロトコルに記載し、IRBの審査を受け、申請時に記録として提出できる状態で、査察対応にも回答できることを意味する。AIの性能評価と、試験への正式組み込みはまったく別のプロセスだ。 この差を埋めるために必要なのは、何を固定すべきかという設計方針だ。闇雲に記録を増やしても意味はない。申請と査察対応で論点化しやすい「固定すべき三要素」——組み入れ条件、判定条件、停止条件——を明確にしてから始める必要がある。 ▶ADICはこちら 【対象成果物】この記事が扱う記録単位 本記事で扱うのは、臨床試験AI組み込みに関する以下の成果物セットだ。 組み入れ条件表:プロトコルの適格基準とAIの判定ロジックの対応を照合可能な形で記録したもの 判定閾値表:有効性・安全性評価に使う閾値の定義と版管理記録 停止記録:停止条件が発動した事実、理
kanna qed
4月9日読了時間: 5分
bottom of page