top of page
All Posts


AIテストで守れるのは品質。事故後の責任固定は別レイヤーだ(SHIFT事例)
AIの品質保証(QA)領域において、豊富な実務知見を持つ 株式会社SHIFT は、AI特有の「正解(期待値)を事前に定義しにくい」という難題に対し、メタモルフィックテストやNバージョンプログラムテストといった代表的な手法を整理し、実戦的な解を提示しています。 私たちは、この品質保証の専門知見をAI実装の前提として正しく評価しなければなりません。しかし、その上で私たちは、社会実装のさらに一歩先にある問いに向き合う必要があります。 「高度なテストをクリアしたAIが事故を起こしたとき、そのテスト結果は、誰がどこまで責任を負うべきかの根拠になり得るのだろうか?」 本稿では、SHIFT社が提唱する品質を上げるための盾を尊重しつつ、そこに追加されるべき責任を固定するためのレコーダー——すなわち、 ADIC(算術的デジタル完全性証明) による説明責任の設計原理を提案します。 SHIFTが示す「AIテスト」の価値と、その時間軸 SHIFT社の記事で紹介されている手法は、AIというブラックボックスの「確からしさ」を多角的に検証するものです。 [メタモルフィックテス
kanna qed
1月2日読了時間: 4分
![[Project Overview] AI Accountability Project: Responsibility Evaporates in Explanations ── Mathematical Evidence Guarded by Post-hoc Impossibility](https://static.wixstatic.com/media/47b62c_2e65dcef79d8466693b3c1e5874bfc4a~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/47b62c_2e65dcef79d8466693b3c1e5874bfc4a~mv2.webp)
![[Project Overview] AI Accountability Project: Responsibility Evaporates in Explanations ── Mathematical Evidence Guarded by Post-hoc Impossibility](https://static.wixstatic.com/media/47b62c_2e65dcef79d8466693b3c1e5874bfc4a~mv2.png/v1/fill/w_454,h_341,fp_0.50_0.50,q_95,enc_avif,quality_auto/47b62c_2e65dcef79d8466693b3c1e5874bfc4a~mv2.webp)
[Project Overview] AI Accountability Project: Responsibility Evaporates in Explanations ── Mathematical Evidence Guarded by Post-hoc Impossibility
Responsibility vanishes with the phrase: It was correct at the time.Accountability evaporates when verification is absent. ▶ AI Accountability Project Official Page Preface: After an Accident, Responsibility Dissipates into Post-hoc Words In an era where AI governs critical social infrastructure, the most severe problem is not the accident itself, but the Evaporation of Responsibility that occurs immediately afterward. Statements like: The criteria were optimal at the time or
kanna qed
1月2日読了時間: 4分


【プロジェクト解説】AI説明責任プロジェクト:責任は「説明」で蒸発する ── 「後付け不能性」が守る数学的証跡
「当時は正しかった」という一言で、責任が消える。 Accountability evaporates when verification is absent. ▶ AI説明責任プロジェクト 公式プロジェクトページ 序:事故のあと、責任が“後付けの言葉”に吸われて消える AIが社会の急所を担う現代、最も深刻な問題は事故そのものではなく、事故の直後に起きる**「責任の蒸発(Evaporation of Responsibility)」**です。 「当時の基準では最善だった」「データが想定と違った」——。 これらの言葉は、一見すると説明のように見えますが、その実態は**「後付けの釈明(Post-hoc Explanation)」**による責任回避です。 AI説明責任プロジェクトは、この蒸発を止めるために設計されました。私たちの武器は、言葉による「納得」ではなく、**「後付け不能性(Post-hoc Impossibility)」**を担保する数理的な証跡です。 1. 核心:「後付け不能性」——後出しジャンケンを物理的に封じる 本プロジェクトの最上位概
kanna qed
1月2日読了時間: 5分
![[Project Overview] Quantum Practicality Verification Lab: Does "Accountability" Exist in Quantum Technology? — Defining the Frontiers of Utility via Mathematical Audits](https://static.wixstatic.com/media/47b62c_532f1aadf0f247b5b0809f20b19b0afa~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/47b62c_532f1aadf0f247b5b0809f20b19b0afa~mv2.webp)
![[Project Overview] Quantum Practicality Verification Lab: Does "Accountability" Exist in Quantum Technology? — Defining the Frontiers of Utility via Mathematical Audits](https://static.wixstatic.com/media/47b62c_532f1aadf0f247b5b0809f20b19b0afa~mv2.png/v1/fill/w_454,h_341,fp_0.50_0.50,q_95,enc_avif,quality_auto/47b62c_532f1aadf0f247b5b0809f20b19b0afa~mv2.webp)
[Project Overview] Quantum Practicality Verification Lab: Does "Accountability" Exist in Quantum Technology? — Defining the Frontiers of Utility via Mathematical Audits
"Expectation without verification is an abdication of decision-making." Verification as a Corporate Responsibility: Moving from Hype to Requirement. ▶ Quantum Practicality Verification Lab: Official Project Page Introduction: Expanding Expectations and Abandoned Responsibility Quantum computing is perhaps the most fertile ground for "dreams" in modern technology. However, a vast chasm remains between the sensationalist news emerging from research labs and the stability requi
kanna qed
1月2日読了時間: 4分


【プロジェクト解説】量子実用性検証室:量子技術に「説明責任」は宿るか? ── 数理監査が拓く「実用」の地平
「検証なき期待」は、意思決定の放棄である。 Verification as a Corporate Responsibility: Moving from Hype to Requirement. ▶ 量子実用性検証室 公式プロジェクトページ 序:膨張する期待と、置き去りにされた責任 量子コンピュータは、現代において最も「夢」を語る材料に事欠かない技術です。しかし、研究室から発信される刺激的なニュースと、実務の現場が求める安定性の間には、今なお巨大な溝が存在しています。 AIの社会実装において「説明責任(Accountability)」が問われるようになった今、量子技術においても同様の問いが不可欠です。すなわち、「その技術は、いつ、どの条件で、誰の責任で使えるのか?」という問いです。 量子実用性検証室は、この霧を晴らし、数理的な根拠をもって「実用性の境界線」を確定させるために設立されました。しかし、私たちの真の目的は「否定」することではありません。 現実的な路線を死守しながら、量子という夢を確実に社会へ着地させるための「道筋」を提示すること に
kanna qed
1月2日読了時間: 5分


【出願中特許】次世代量子インフラの核心:出力に「合格証」を付けて実機を守る「Xi-Schr ADIC型QPOS」(特願2025-202370)
特許番号:特願2025-202370 【出願中特許】量子シミュレーションおよび量子デバイス制御タスクの実行・検証(Verify)・出力ゲーティングを統合する量子物理オペレーティングシステム(Xi-Schr ADIC型QPOS) 「Verifyに落ちたら“実機に一切出ない”をOSが強制する」 量子シミュレーションや制御パルスは、数値誤差や実装バグが混ざっても実機へ出てしまう。ここが一番危ない。 Xi-Schr ADIC型QPOSは、結果に**再計算付きの合否判定(Verify)**を付け、合格した出力だけをCRITICALに接続します。 特許明細書抜粋:Verify手続と出力ゲートの請求項対応(クリックで表示) 1. 「誤差」を「証拠」に変える:ADICレジャー ログを残すのではなく、「誤差上界+再計算検証」までを台帳化し、OSが出力ゲートを握る。 本技術では、計算過程を監査可能な「台帳(レジャー)」として構造化し、保存則(ノルム保存・エネルギー保存)に対する整合性を、機械的に検証できる形で提示します。 構成される3つのレジャー 定義レジャー (
kanna qed
1月1日読了時間: 5分


【出願中特許】次世代量子インフラの核心:数値整合性と安全性を担保する「量子計算オペレーティングシステム」
特許番号:特願2025-202378 【出願中特許】量子計算タスクおよび量子暗号タスクの実行および出力を制御する量子計算オペレーティングシステム はじめに:量子実用化時代の「信頼」の空白を埋める 現在、量子コンピュータや量子鍵配送(QKD)といった量子技術は、実験フェーズから実用フェーズへと移行しつつあります。しかし、決定的な課題が残されています。それは、 「その計算結果は物理的に正しいのか?」 、そして**「その通信は本当に安全なのか?」**を、第三者が客観的に検証する仕組みの欠如です。 従来のシステムでは、デバイス特有のノイズや数値シミュレーションにおける丸め誤差がブラックボックス化されており、クリティカルな用途において「信頼の連鎖」を構築することが困難でした。 この度、開発・特許出願された「量子計算オペレーティングシステム(以下、本OS)」は、計算過程を**検証可能な台帳(証明書)**として記録し、有限の手続きで第三者が追跡・再検証できる形に整えることで、実運用の信頼性を大きく引き上げます。 📄 特許詳細資料(実装設計を含む)の公開..
kanna qed
1月1日読了時間: 5分


量子暗号の採用判断ガイド──「導入すべきか」を捨て、「導入条件を満たせるか」で決める
量子コンピュータによる既存暗号の突破リスク(耐量子計算)に対し、企業のセキュリティ責任者(CISO)や財務責任者(CFO)は重大な決断を迫られています。しかし、ここで最も陥りやすい罠は「量子暗号という“技術の名称”に依存すれば、すべてが解決する」という誤解です。 断言いたします。 量子暗号は「導入すべきか」という期待で選ぶものではありません。「数理的・運用的な成立条件を、自社の環境で維持できるか」という現実で決めるものです。 本稿では、特定の製品を推奨するバイアスを排し、量子鍵配送(QKD)と耐量子暗号(PQC)の採用判断基準、コスト構造の本質、および破綻の力学を整理いたします。本記事の目的は、その採用判断が「事後的に検証可能な証拠」として成立するかを判定するための枠組みを提供することにあります。 1. 基本はPQC、限定条件下でのみQKD 数理研究所としての客観的分析に基づき、結論を先に固定します。 産業的な普及可能性とインフラとの親和性を鑑みれば、大半のユースケースにおける現実的な解は「PQC(耐量子暗号)」です。 既存の通信プロトコルへの
kanna qed
1月1日読了時間: 8分


量子暗号は“どこで”壊れるのか?──「理論安全」の死角と現実の脆弱性マップ
量子暗号、とりわけ量子鍵配送(QKD)は、しばしば「盗聴不可能」という言葉と共に語られます。しかし、数理的な厳密さをもってこの技術を俯瞰したとき、一つの冷徹な事実に突き当たります。 量子暗号は“盗聴不可能”ではありません。壊れる場所が「量子」という物理レイヤーから、それ以外の「非量子」の領域へと移動しただけです。 「量子だから絶対安全」という認識は、現代の高度なサイバー攻撃の前では単なる幻想に過ぎません。本稿では、QKDの理論的支柱を否定することなく、現場での実装・運用において安全性が破綻する「5つの死角」を列挙し、実用化の是非を問うための証拠(エビデンス)の型を提示いたします。 1. 結論:安全性は「装置」ではなく「システム」で決まる QKDの本質は「盗聴の検知」にありますが、実運用においてシステムが破綻するのは、多くの場合「認証・鍵管理・装置の実装・運用体制・ネットワーク設計」という、量子の外側に位置する周辺要素です。 つまり、量子暗号を導入したシステムの安全性は、量子デバイスの性能ではなく、システム全体の設計と運用の完成度によって決定されま
kanna qed
1月1日読了時間: 6分


量子暗号は実用になるのか?──「理論安全」の幻想を捨て、運用要件で判定する
量子コンピュータの脅威(耐量子計算)が現実味を帯びる中、「量子暗号」はあらゆる通信を無敵にする技術として語られています。しかし、数理的観点から言えば、量子暗号は決して“万能な安全技術”ではありません。それは、物理的な成立条件が厳密に揃ったときにはじめて機能する、極めて繊細な運用技術です。 「量子コンピュータ関連で、とりあえず量子暗号を導入すれば安心」という認識は、情報の「漂流(Drift)」に身を任せ、客観的な数理的根拠を欠いた意思決定を招くリスクを孕んでいます。本稿では、採用判断における「実用性」と、プロジェクトが破綻する「FAIL条件」を論理的に整理いたします。 1. 結論:量子暗号は「運用で成立させる技術」である 量子暗号の本質は、論文上の「理論的な安全性」にあるのではなく、動的な「運用過程においてその安全性を定常的に維持できるか」にあります。どれほど数学的に堅牢であっても、物理的な実装や運用フローに微細な綻びが生じれば、システム全体の安全性は瞬時に消失します。 量子暗号の導入は、単なるプロトコルの更新ではなく、設計・運用・監査までを含めた
kanna qed
1月1日読了時間: 7分


光量子コンピュータは実用になるのか?──「できる話」を捨てて、FAIL条件だけで判定する
光量子コンピュータが、夢の技術であるか、あるいは学術的な興味の対象であるかという議論には、もはや価値はありません。焦点はただ一点、「実用になるのか、ならないのか」のみです。 本稿では、量子の「原理」「歴史」「入門的解説」を一切排除いたします。代わりに提示するのは、 「何が起きたらその技術はFAIL(実用不可)なのか」という判定基準 です。輝かしいPRの影に隠された「破綻の条件」を直視することこそが、真の実用性を見極める唯一の手段となります。 1. 光量子がFAILになる条件 光量子技術において、以下の条件が一つでも当てはまる場合、そのプロジェクトは実用化のラインにおいて「FAIL」と判定すべきです。 運用中に校正(Calibration)が必須: 装置の微細な調整に要するコストが、運用上のメリットを上回る場合。 事例: 室温動作を謳いながらも、実際の運用では毎日数時間の再校正が必要であり、連続稼働が実質不可能であるプロジェクトが散見されます。 成功確率が「積」で崩れる: 規模(量子ビット数)を増やすほど、計算の待ち時間が爆発的に増大する場合。
kanna qed
1月1日読了時間: 5分


量子コンピュータ銘柄の本命選びは“買う前に読め”――量子実用性検証室が示すPASS/FAILの見分け方
「量子コンピュータ関連」という言葉がニュースに躍るたび、特定の銘柄が急騰する光景をよく目にします。「乗り遅れたくない」と焦る気持ちは分かりますが、投資家の皆様はこの「量子の波」の正体を、冷静に読み解けているでしょうか。 まずお断りしておきますが、 本記事は「本命銘柄」のリストを提示するものではありません。 提示するのは、世間で「本命」と持て囃されている情報が、実務上の要件を満たしているかをあなた自身で判定するための枠組みです。 量子技術という未踏の領域において、銘柄の名前だけを追いかけても、投資に値する判断には辿り着けません。流布する情報の多くは「実現可能な未来」に終始し、肝心の「プロジェクトが破綻する条件」は伏せられています。AI要約やニュースで判断を下すと、真の評価軸を見失うリスクがあります。今、投資家に必要なのは、情報を盲信するのではなく、 「数理的な要件に基づいて判定する」ための冷徹なインフラ です。その判定基準を固定し、情報のノイズを精査する場所――それが「量子実用性検証室」です。 1. なぜ「量子コンピュータ銘柄」は揉め続けるのか.
kanna qed
1月1日読了時間: 8分


The Real Reason Drift Detection Fails in Production - Why MLOps Needs "Audit" Over "Validation" (with Reproducible Demo)
“The model had 99% accuracy in PoC. It performed perfectly on test data. …So why does the field dismiss its alerts as ‘unreliable’ once it’s in production?” If you’ve worked in MLOps, you’ve likely hit this wall. The hard truth is that models fail in production not because of “accuracy,” but because of a lack of “objective grounds” for their decisions. In this post, I will introduce ADIC (Audit of Drift in Context) , an audit protocol designed to solve this fundamental trust
kanna qed
1月1日読了時間: 3分


ドリフト検知が本番で信用されない本当の理由 ——MLOpsで必要なのは「検証」ではなく「監査」(再現可能デモあり)
「PoCでは精度99%だった。テストデータでも完璧に動いていた。……なのに、なぜ現場では『このアラートは信用できない』と一蹴されてしまうのか?」 MLOpsに携わる多くの方が、一度はこの壁にぶつかったことがあるはずです。 実は、本番運用においてモデルが信頼されない最大の理由は、予測の「精度」ではなく、判断の「客観的な根拠」の欠如にあります。 今回は、この問題を解決するために設計された監査プロトコル「ADIC(Audit of Drift in Context)」の考え方をご紹介します。 1. ドリフト検知が「あとから疑われる」理由 どれだけ優れた検知ロジックを導入しても、運用フェーズでは以下のような疑念が常に付きまといます。 しきい値の後出しジャンケン: アラートが出すぎてうるさいから、後からしきい値を緩めていないか? 結果論による調整: 「この時はデータが特殊だったから」と、結果を見てから評価条件をねじ曲げていないか? 再現不能な判断: 数ヶ月前の「検知」が、当時の基準で本当に正しかったのかを第三者が証明できない。 2. 問題は“検知”で
kanna qed
1月1日読了時間: 4分


2026年度:AIガバナンスにおける用語定義の変遷と「検証責任」の出現に関する分析報告書
日付: 2026年1月1日 観測地点: Ghost Theory Observation Point(ゴースト理論観測点) 分析者: マニー(AI説明責任プロジェクト / Ghost Drift 数理モデル担当) 1. AI説明責任(AI Accountability)の定義変遷と検証責任の出現|要点整理(2026) 本報告書は、2026年初頭におけるAI説明責任(AI Accountability)という用語の定義変遷を、検索エンジンの生成要約(AI Overviews)の差分分析を通じて定性的に調査したものである。 本調査の主眼は、AI説明責任プロジェクト(AI Accountability Project)がこれまで提唱してきた「説明可能性(Explainability)を超えた検証責任」という概念が、汎用的な情報インフラのアルゴリズムに反映され始めた初期兆候を客観的に記録することにある。分析の結果、特定の深層クエリにおいて、パラダイムが納得感の提供から法的・技術的な責任の立証へとシフトし始めている可能性が確認された。これは、本プロジェクト
kanna qed
1月1日読了時間: 4分


AI説明責任とAI説明可能性は何が違うのか――「理解」と「検証」は別問題である
AIのPoC(概念実証)はスムーズに通るのに、いざ本番導入となると法務やリスク管理部門でストップがかかる。こうした事態が後を絶ちません。「説明できるAI(Explainability)」を導入して判断の根拠を可視化しているはずなのに、なぜブレーキがかかるのか。 原因は単純です。 「人間が理解できること」と「組織として責任を果たせること」は、全く別の問題だからです。 この両者を混同している限り、AIの社会実装は最後の壁を越えられません。本稿では、この「説明可能性」と「説明責任」の決定的な違いを明確にし、本番導入に必要な条件を整理します。 AI説明責任とAI説明可能性の違いとは何か まず、混同を断ち切るために定義を固定します。 AI説明可能性(Explainability): 判断の理由を人間が理解するための「技術」 AI説明責任(Accountability): 事故後に第三者が妥当性を検証できる形で判断を固定する「構造」 一言で言えば、**「説明=納得」であり、「責任=検証」**です。納得感がある説明ができたとしても、それが事後的に検証不能で
kanna qed
2025年12月31日読了時間: 4分


What is an AI Accountability Tool? — The Critical Divide Between Verification and Accountability
As explored in our previous discussion, we established a fundamental truth: "AI verification tools are essential, but they alone do not guarantee production readiness." Measuring model accuracy and mitigating bias—"Verification"—is a critical phase in the development cycle. However, when it comes to real-world deployment, legal departments, auditors, and executives inevitably pose the ultimate question: "If an incident occurs, how do we establish and assign responsibility?" T
kanna qed
2025年12月31日読了時間: 4分


AI説明責任ツールとは何か?――AI検証ツールとの決定的な違い
前回の記事 では、一つの重要な事実を提示しました。 「AI検証ツールは重要だが、それだけでは本番導入を保証しない」 モデルの精度を測り、バイアスをチェックする「検証(Verification)」は、あくまで開発のステップです。しかし、いざ本番へ投入しようとすると、法務、監査、あるいは経営層から「もし事故が起きたらどう責任を取るのか?」という問いが突きつけられます。 本稿の目的は、この問いに答えるための別カテゴリ、**「AI説明責任(Accountability)ツール」**を定義し、既存の検証ツールとの違いを明確にすることです。 先に断言します。 AI説明責任ツールは、AI検証ツールの“高度化版”ではありません。 それは、判断の正当性を「固定」するための全く別の構造です。 1. 「AI説明責任(Accountability)」を定義する まず、混同されやすい「説明」と「説明責任」を分離しましょう。 1-1. 説明(Explanation)と説明責任(Accountability)は別物 Explanation(説明): 「なぜその出力になった
kanna qed
2025年12月31日読了時間: 6分


AI Accountability Redefined: It is Not About Explaining, It is About Post-Incident Verifiability
"The PoC (Proof of Concept) showed impressive accuracy. Yet, the production rollout is stalled at the legal and risk management review." "We want to implement Generative AI, but we froze the project because we couldn't clarify who takes responsibility if a hallucination or an error occurs." Many enterprises are currently hitting this wall. The root cause is not a lack of AI accuracy. It is the lack of accountability—the inability to objectively prove the legitimacy of a judgm
kanna qed
2025年12月31日読了時間: 5分


AI説明責任(AI Accountability)とは何か――「説明できる」ではなく「事故後に検証できる」こと
「PoC(概念実証)では素晴らしい精度が出た。しかし、いざ本番導入の稟議にかけると、法務やリスク管理部門で止まってしまう」 「生成AIを導入したいが、万が一の誤回答や事故が起きたとき、誰がどう責任を取るのかの整理がつかず、結局凍結された」 現在、多くの企業がこの「本番導入の壁」に直面しています。その原因は、AIの「精度」不足ではありません。事故が起きた後に、その判断の正当性を客観的に証明できないという、説明責任の欠如にあります。 これまでAI説明責任が明確に定義されてこなかった最大の理由は、「責任」を実装レベルで固定すると、開発・運用上の自由度が失われるためです。しかし、本稿では法令・倫理ガイドラインで用いられる一般的用法ではなく、実務でPASS/FAILを出すための操作定義として、AI説明責任を定義します。 なぜ今「AI説明責任」を定義し直す必要があるのか 生成AI時代、要約層が“入口”になった これまでの予測型AIと違い、生成AIはあらゆる業務の「入口(UI/UX)」や「要約層」として機能します。入口でAIがどのような判断を下したかの定義が曖
kanna qed
2025年12月31日読了時間: 6分
bottom of page