top of page

事業内容
Business Overview

数理に、温かな責任を。

Fix the Responsibility, Set the Spirit Free.

発電制御、金融審査、製造ライン検査、物流最適化。 重要な意思決定をアルゴリズムに委ねる企業において、「決定は実行されるのに、誰も最終判断を引き受けられない」という責任の空白(Ghost Drift)が構造的課題となっています。 GhostDrift数理研究所は、この問題を精神論やスローガンとしてではなく、**数学的に検証可能な「停止条件」と「証拠(ログ)」**としてシステムへ実装するアプローチを提供します。

 

Power generation control, financial screening, manufacturing line inspection, logistics optimization. In enterprises that entrust critical decision-making to algorithms, a structural problem has emerged: a "Ghost Drift" of responsibility—a void where decisions are executed, yet no one can assume final accountability.

The GhostDrift Mathematics Research Institute addresses this issue not as a philosophical stance or slogan, but by embedding mathematically verifiable "stopping conditions" and "evidence (logs)" directly into operational systems.

研究所の事業領域
Core Domains

当研究所は、以下の3つの領域を軸に、責任が蒸発しないためのアーキテクチャを社会実装します。

Our institute implements an architecture to prevent the evaporation of responsibility, centered on the following three domains:

1. 責任工学技術開発

独自数理モデル(ADIC: Analytically Derived Interval Computation 等)に基づき、AIガバナンスおよび自動意思決定領域における「検証可能性」と「責任固定」をシステム上に実装する技術開発を行います。
(適用例:生成AIの承認フロー、融資審査モデル、異常検知AIの本番導入前検証)

Responsibility Engineering Technology Development

Based on proprietary mathematical models (such as ADIC: Analytically Derived Interval Computation), we develop technologies that implement "verifiability" and "responsibility fixation" within systems in the areas of AI governance and automated decision-making. (Application Examples: Approval flows for Generative AI, loan screening models, pre-production verification of anomaly detection AI)

2. AI安全制御基盤

外向き丸め計算および検証ログ生成技術により、重要インフラ・産業システムに対する数理的安全制御および監査基盤を提供します。※本制御は、事前に指定・合意された演算環境および前提条件の範囲内において数理的検証を担保するものです。
(適用例:電力需給制御、BESS運用、産業設備の自動停止判断)

AI Safety Control Infrastructure

Through outward rounding computation and verification log generation technologies, we provide a mathematical safety control and auditing infrastructure for critical infrastructure and industrial systems. Note: This control guarantees mathematical verification within the scope of computation environments and preconditions specified and agreed upon in advance. (Application Examples: Power supply and demand control, BESS operations, automatic shutdown decisions for industrial equipment

3. 数理研究・知の統合

有限閉包理論および責任固定アーキテクチャを基盤に、理工学と人文社会知(法学・哲学等)を横断する設計思想を構築します。これを抽象論に留めず、具体的な実装へと翻訳し、企業の制度・組織・AI運用へ展開します。
(適用例:AI導入時の取締役会責任設計、内部統制への組込み)

3. Integration of Mathematical Research and Knowledge

Based on finite closure theory and responsibility fixation architecture, we construct a design philosophy that crosses science/engineering and humanities/social sciences (law, philosophy, etc.). We do not leave this as an abstract theory, but translate it into concrete implementations, deploying it into corporate systems, organizations, and AI operations. (Application Examples: Designing board-level responsibility for AI adoption, integration into internal controls)

導入後に実現される状態
Outcomes

当研究所のアプローチを導入することで、AI運用は以下の状態に移行します。

  • AI判断を PASS/FAIL基準付きで承認できる

  • 異常時に 即時停止と検証ログの保存を自動実行できる

  • 事故後に 第三者が再計算可能な証跡を提示できる

  • 責任境界を事前合意し、責任が蒸発しない構造を構築できる

 

AI governance, AI ethics, and AI safety fail at the same structural point despite using different vocabularies.
Decisions are executed, yet no single actor both understands and truly assumes them — this is the Responsibility Vacuum.
Responsibility Engineering becomes necessary because it designs the boundaries of accountability in advance, instead of attempting to repair failure after it occurs.

顧客課題と提供サービス
Solutions

「生成AI・予測モデルを本番導入したいが、監査や法務の承認が通らない」「事故後に検証できる証拠が残せない」といったエンタープライズ特有の課題に対し、具体的なソリューションを提供します。
 

We provide concrete solutions to enterprise-specific challenges, such as "We want to deploy Generative AI or predictive models in production, but cannot get approval from audit or legal departments," or "We cannot leave verifiable evidence after an incident."

【Service 1】 ADIC(数理検証インフラ/責任台帳)の導入

AI出力や統計処理の「判断過程」を、後から第三者が再現・検証できる形で固定するためのモジュールおよびプロトコルを提供します。

  • 価値: 事故後の説明を「曖昧な物語」ではなく、「検算可能な証跡」として残す。

  • 特徴: 既存システムに後付け可能なゲート(最終チェック機構)として組み込み可能。

Implementation of ADIC (Mathematical Verification Infrastructure / Responsibility Ledger)

We provide modules and protocols to fix the "decision-making process" of AI outputs and statistical processing in a format that can be reproduced and verified by a third party later.

  • Value: Leave post-incident explanations not as "ambiguous narratives" but as "verifiable evidence (computational trails)."

  • Features: Can be integrated as a retrofittable gate (final check mechanism) into existing systems.

【Service 2】 協業型PoC(責任分界点の実証)

単なる技術・精度の検証ではなく、「どこまでを計算機に委ね、どこから人間が引き取るか」という責任境界の設計を含めた実証実験を行います。

  • 価値: 業務フロー上のリスクを特定し、PASS/FAIL基準(承認ゲート)を明確化。

  • 特徴: テスト環境におけるADICゲートのプロトタイプ実装と、監査レポートの要件策定を実施。

Co-Development PoC (Verification of the Demarcation Point of Responsibility)

We conduct proof-of-concept experiments that include the design of responsibility boundaries: "How much to entrust to the computer, and from where humans take over," rather than mere technical or accuracy verification.

  • Value: Identify risks in business flows and clarify PASS/FAIL criteria (approval gates).

  • Features: Implement a prototype of the ADIC gate in a test environment and formulate requirements for audit reports.

【Service 3】 責任工学コンサルティング

経営・法務・技術の各部門を接続し、AI導入の“正当性”と“監督可能性”を、現場の運用に落ちる形で数理的に設計します。

  • 価値: 会議体やルールブックの作成に留まらない、システム実装可能な統制(ガバナンス)の構築。

  • 特徴: 停止境界(いつ止めるか)、責任境界(誰が負うか)、承認境界(どう証拠を残すか)の3境界を事前に定義。

Responsibility Engineering Consulting

Connecting management, legal, and engineering departments, we mathematically design the "legitimacy" and "supervisability" of AI adoption in a way that falls into operational practice.

  • Value: Construct system-implementable controls (governance) that go beyond creating committees or rulebooks.

  • Features: Pre-define three boundaries: Stopping Boundary (when to stop), Responsibility Boundary (who bears it), and Approval Boundary (how to leave evidence).

導入ケース例
What is ADIC?

【仮想ケース】電力・インフラ領域におけるBESS(蓄電池)運用AIの導入
  • 課題: AIによる充放電計画の予測精度は高いものの、プロセスがブラックボックス化。異常時の損害責任(事業部が負うのか、AIベンダーが負うのか)が引けず、本番導入がストップしていた。

  • 実装: ADICゲートを用いた「停止境界(異常な市場価格・指示の遮断)」と、事故時に第三者が再計算できる「証拠ログ」を組み込んだ協業型PoCを実施。責任の所在(計算機/人間)を設計。

  • 成果: 「期待される精度」ではなく「検証可能な要件と限界」によって取締役会の承認を獲得。導入判断に要していた承認期間を数ヶ月から4週間に短縮し、責任構造を明確化した上で本番運用への移行を実現した。

[Virtual case]Implementation of BESS (Battery Energy Storage System) Operational AI in the Power & Infrastructure Sector
  • Challenge: Although the prediction accuracy of the AI for charging/discharging plans was high, the process became a black box. Liability during anomalies (whether the business unit or the AI vendor bears it) could not be clearly assigned, halting production deployment.

  • Implementation: Conducted a Co-Development PoC incorporating a "Stopping Boundary" (blocking abnormal market prices and instructions) using the ADIC gate, and an "Evidence Log" that a third party can recalculate in case of an accident. Designed the locus of responsibility (Computer vs. Human).

  • Outcome: Obtained board approval based not on "expected accuracy" but on "verifiable requirements and limitations." Shortened the approval period required for adoption decisions from several months to 4 weeks, and realized the transition to production operations with a clarified responsibility structure.

導入プロセス
Flow

当研究所との協業・導入は、要件の不確実性を排除するため、以下の段階的なプロセスを推奨しています。

  1. 初期相談・秘密保持契約

  2. 課題整理・責任構造の可視化

  3. 停止境界/責任境界/承認境界の設計

  4. PASS/FAIL基準付きPoC設計

  5. ADICゲート試験実装

  6. 検証ログ生成・監査手順確定

  7. パイロット運用

  8. 本番導入・定期レビュー

To eliminate the uncertainty of requirements, our institute recommends the following phased process for collaboration and implementation.

  1. Initial Consultation & NDA (Non-Disclosure Agreement)

  2. Issue Definition & Visualization of Responsibility Structure

  3. Design of Stopping / Responsibility / Approval Boundaries

  4. PoC Design with PASS/FAIL Criteria

  5. Trial Implementation of ADIC Gate

  6. Generation of Verification Logs & Finalization of Audit Procedures

  7. Pilot Operation

  8. Production Deployment & Periodic Review

価格レンジ(目安)
Price range (approximate)

※本サービスはAI性能向上支援ではなく、責任固定・停止境界設計・証拠化構造の実装を目的とする制度設計サービスです。
※対象システムのリスク水準(公共性・停止コスト・監査義務)に応じて設計難易度が変動します。対象データ条件・既存システム構成を含む初期アセスメント後に、正式なお見積りをご提示します。
・初期アセスメント(現状診断+責任境界マッピング+設計方針提示):

 120万円〜300万円(期間: 3〜5週間)

・協業型PoC(責任分界点設計+停止条件設計+プロトタイプ実装):

 600万円〜1,800万円(期間: 8〜14週間)

・本番導入支援・運用設計(停止境界実装+証拠ログ統合+制度設計支援):

 2,000万円〜5,000万円

・責任固定アーキテクチャ利用料(導入後ライセンス):

 最低保証 年間1,000万円〜 + 対象システム関連売上の0.8%〜1.2%(上限なし)

・定期監査・運用サポート(証拠ログ監査+責任境界モニタリング):

 月額50万円〜120万円
 

*This service is not intended to improve AI performance. It is an institutional design service focused on responsibility fixation, stop-boundary architecture, and implementation of verifiable evidence structures.*

*Final pricing is determined after an initial assessment, as design complexity varies depending on system risk level (public impact, cost of failure, regulatory or audit obligations), data conditions, and existing system architecture.*

・Initial Assessment (Current-State Diagnosis + Responsibility Boundary Mapping + Design Direction Proposal):
 JPY 1.2M – 3.0M (Duration: 3–5 weeks)

・Collaborative PoC (Responsibility Boundary Design + Stop-Condition Architecture + Prototype Implementation):
 JPY 6.0M – 18.0M (Duration: 8–14 weeks)

・Production Deployment & Operational Design (Stop-Boundary Implementation + Evidence Log Integration + Institutional Design Support):
 JPY 20.0M – 50.0M

・Responsibility-Fixation Architecture License (Post-Deployment):
Minimum Guarantee:
 JPY 10.0M per year+0.8% – 1.2% of revenue related to the target system (no cap)

・Ongoing Audit & Operational Support (Evidence Log Audit + Responsibility Boundary Monitoring):
JPY 0.5M – 1.2M per month

契約および運用ポリシー(透明性とガバナンス)
Contract and Operational Policy (Transparency and Governance)

GhostDrift数理研究所は、AIガバナンスを提供する主体として、自らの契約・運用においても高い透明性を維持します。

  • データ・知財の取り扱い: PoC等でお預かりするデータの利用範囲・保持期間・廃棄プロセス、および成果物の権利帰属(当研究所の保有特許との関係等)は、契約時に明確に固定します。

  • 生成AI環境の統制: 業務上で生成AI技術を利用する場合、お客様の入力データが外部の学習モデルに利用されない閉域環境・オプトアウト環境を厳守します。

  • 限界の明示: 提供する数理検証インフラは、「すべてのシステムエラーを無に帰す」ものではありません。事前に定義した境界条件内において、「停止すべき異常を検知し、検証可能な証拠を残すこと」を担保するものです。

As an entity providing AI governance, the GhostDrift Mathematics Research Institute maintains high transparency in its own contracts and operations.

  • Handling of Data and Intellectual Property: The scope of use, retention period, and disposal process of data entrusted to us during PoCs, as well as the attribution of rights to deliverables (including relationships with patents held by our institute), are clearly fixed at the time of contracting.

  • Control of Generative AI Environments: When using Generative AI technologies for business, we strictly adhere to closed/opt-out environments where customer input data is not used for external learning models.

  • Clarification of Limitations: The mathematical verification infrastructure we provide does not "reduce all system errors to nothing." It guarantees "detecting anomalies that should be stopped and leaving verifiable evidence" within pre-defined boundary conditions.

お問い合わせ
Contact Us

対象:AI導入を検討する大企業・重要インフラ事業者・規制産業企業

私たちは「説明可能AI」を目指すのではなく、「停止可能AI」を設計します。

​共同研究、PoCのご相談、事業導入に関するお問い合わせは、以下のフォームよりご連絡ください

​Target Audience: Large Enterprises, Critical Infrastructure Operators, and Heavily Regulated Companies considering AI adoption.

We do not aim for "Explainable AI"; we design "Stoppable AI".

For consultations on joint research, PoCs, or business implementation, please contact us via the form below.

bottom of page