
お知らせ/ News
2026.4.28
2026年4月20日付で、弊社は株式会社オンザリンクス様と戦略的パートナーシップを締結いたしました
Entered into a strategic partnership with ONZA LINX Inc. as of April 20, 2026.
AIを「使える」から「信頼できる」へ
From AI that works to AI you can trust.
競争力を高め、経営リスクを下げる。その両方を、ガバナンスで実現します。
Strengthen competitiveness and reduce management risk — both through governance.

AIに「引用される」企業が勝つ時代へ
The era where being cited by AI determines who wins
AIが回答を生成するとき、参照されるかどうかが新しい競争軸です。AIガバナンスへの取り組みが、そのまま可視性の優位につながります。
When AI generates answers, being cited is the new competitive edge. AI governance builds the conceptual clarity that generative engines reference.

AI規制違反の制裁金、最大で売上の7%
Non-compliance fines: up to 7% of global annual revenue
EU AI Actが2026年8月に本格適用。判断根拠を事前に残すことが、インシデント発生時の説明責任と制裁リスク低減に直結します。
The EU AI Act applies fully from August 2026. Pre-established decision records are the foundation of accountability and regulatory risk reduction.

ユースケース
Use cases
次世代AIガバナンス技術ADICが、間違いが許されないAI活用を支えます。
ADIC, a next-generation AI governance technology, supports AI use where errors are not tolerated.
製薬物流のコールドチェーン(温度管理物流)
Pharmaceutical cold chain logistics (temperature-controlled logistics)

薬が医療機関に届くまでには、製薬会社だけでなく、製造委託先、物流会社、卸会社など多くの会社が関わります。
その途中で温度管理に問題が起きたり、受け渡しの判断があいまいになったりすると、品質責任や信用リスクにつながります。ADICは、温度記録・受け渡し記録・現場判断を、後から検証できる証拠として残します。
これにより、製薬会社には損害賠償・信用毀損リスクを抑える「守りの基盤」を、卸会社には顧客から選ばれるための「攻めの証拠力」を提供します。
Before medicines reach medical institutions, many parties are involved, including pharmaceutical companies, contract manufacturers, logistics providers, and wholesalers.
If temperature control fails along the way, or if handoff decisions become unclear, this can lead directly to quality responsibility and reputational risk. ADIC preserves temperature records, handoff records, and on-site decisions as evidence that can be verified later.
As a result, ADIC provides pharmaceutical companies with a defensive foundation for reducing liability and reputational risks, while giving wholesalers evidence strength that helps them be selected by customers.
Applications . . .

AIの実運用に必要な条件を検証する取組です。
These initiatives verify the conditions required for real-world AI operation.
AI運用の責任固定と検証可能性の数理基盤
Mathematical Foundations for Fixed Responsibility and Verifiable AI Operations
Quantum Practicality Testing Laboratory
量子技術の実用境界を見極める検証基盤
Verification Framework for the Practical Boundaries of Quantum Technology
数理と人文知の接続構造を探る横断研究
Cross-Disciplinary Inquiry into the Interface of Mathematics and the Humanities











