top of page
検索

ADICを医療AIでどう使うか――AI候補をそのまま使わせないGate実装デモ

先日エンジニア向けの記事としてADICを「AIや数値計算の出力に対して、後から責任を曖昧にしないための監査・証拠化フレームワーク」として紹介しました。



今回はその実践として、ADICを医療AIの実装デモに落としたらどう見えるかを、1ファイル完結のHTMLデモとして整理します。今回の主題は、医療AIが「候補を出せる」ことではありません。主題は、AIが出した候補を、そのまま使わせないための境界をどう実装するかです。


▼医療AIガバナンス基盤について



なぜこのデモを作ったのか

医療AIの話は、どうしても「AIがどれだけ賢く候補を出せるか」に寄りがちです。しかし、実際の医療現場で重要なのは、候補生成そのものよりも、その候補をそのまま通してよいのかを判定する層です。たとえば、AIがそれらしい薬剤候補を出したとしても、

  • 腎機能低下がある

  • 併用薬との相互作用がある

  • 妊娠可能性が未確認

  • アレルギー歴が曖昧

  • 転倒やせん妄の危険がある

といった条件が残っていれば、その候補は「便利な提案」ではあっても、「そのまま使ってよい候補」ではありません。ここで必要になるのが、候補生成AI通過判断 を分ける構造です。


このデモが示すもの

今回のデモは、次の3段階を可視化しています。

  1. AIが候補を出す患者情報をもとに、複数の候補を提示する

  2. ADICが安全チェックする禁忌、相互作用、腎機能、アレルギー、情報不足などを見て、候補をPASS / BLOCK / REVIEW に分ける

  3. 判断理由をログとして残すなぜ止めたか、何が未確認か、何を人が見るべきかを残す

つまりこれは、単なる薬剤推薦UIではありません。AI候補をそのまま使わせないための医療AIガバナンス技術の最小デモです。


GitHub Pagesデモ


画面で何が見られるか

このデモには、以下の要素があります。

1. 症例シナリオ切替

腎機能低下と抗凝固薬候補、妊娠可能性ありの感染症候補、鎮静リスクのある高齢者など、複数のケースを切り替えられます。

2. AI候補一覧

AIが提示した候補を一覧表示します。ただし、この段階ではまだ「採用」ではなく、あくまで候補です。

3. ADIC安全チェック

各候補について、

  • 禁忌

  • 腎機能

  • 併用薬

  • アレルギー

  • 用量条件

  • 根拠可視化

などを見ながら、PASS / BLOCK / REVIEW を表示します。

4. 判断ログ

何を止めたか、どの条件が未確認か、どの判断を残したかを時系列で表示します。


PASS / BLOCK / REVIEW の意味

このデモでの意味はかなりシンプルです。

  • PASSそのまま進めてよい候補

  • BLOCK危険なので止める候補

  • REVIEW情報不足または確認未了のため、人が確認する候補

重要なのは、AIが出した候補を「正しい/間違い」で雑に二分することではありません。前に進めてよいか、止めるべきか、人に戻すべきか を明示することです。


なぜADICとつながるのか

前回の記事では、ADICを「監査」「証拠化」「責任固定」の文脈で説明しました。今回のデモは、そのADICをもう少し実装寄りに見せています。ここでのADICは、単なるログ出力ラベルではありません。役割ははっきりしています。

  • 候補をそのまま通さない

  • 条件を見る

  • 止める / 戻す / 通す を分ける

  • 理由を残す

つまり、ADICは「後から説明するためのもの」であるだけでなく、そもそも何を通してよいかを固定する境界層 として使えます。この点がかなり重要です。医療AIで本当に必要なのは、「AIが候補を出した」という事実そのものよりも、どの条件を見て、その候補を止めたのか、あるいは前進可能としたのか が後から追えることです。


このデモは何ではないのか

ここは誤解されやすいので明示しておきます。このデモは、本番運用の医療安全エンジンそのものではありません。UIと判断フローを可視化した概念実証です。現在の実装では、

  • 「安全チェックを実行」表示中の判定結果を集計してログに反映する

  • 「いちばん安全な候補を見る」PASS候補の中から代表例を表示する

という簡略動作になっています。つまり、ここで見せているのは「完全な判定エンジン」ではなく、医療AIガバナンスがどういう形でUIと判断境界に現れるか です。それでも、構造として示していることには意味があります。候補生成と通過判断を分ける、危険候補を止める、要確認候補を人に戻す、理由を残す。この骨格自体が重要だからです。


なぜ医療でこの構造が必要なのか

医療では、推薦の精度だけでは足りません。必要なのは、

  • 危険な候補を止めること

  • 情報不足の候補を保留すること

  • 人間が見るべき点を明示すること

  • 後から説明できること

です。この意味で、医療AIは「AIが強いほど良い」という単純な話ではありません。むしろ、AIの出力をそのまま使わせない境界 がなければ、システムとして危うい。今回のデモは、その境界を最小限の形で見せたものです。


今回の位置づけ

このデモを一言で言うなら、医療AIの便利機能デモではなく、AI候補をそのまま使わせないためのGate実装デモです。前回のADIC記事が「責任固定の枠組み」の話だとすれば、今回はその続きとして、では実際にどういうUI・どういう判断境界として現れるのか を見せた回になります。理論だけで終わらず、実装の側に降ろしていくと、こういう形になる。今回はその最小例です。


まとめ

今回のデモで見せたかったことは、とても単純です。

  • AIは候補を出せる

  • でも、そのまま使わせてはいけない

  • だから、間にガバナンスの境界が要る

  • その境界は、止める / 戻す / 通す を分ける

  • そして、その理由を残す

医療AIで重要なのは、候補生成だけではありません。AI出力の通過条件を固定することです。ADICは、そのための監査・証拠化の話にとどまらず、通過境界を持つガバナンス層 としても見せられる。今回のデモは、そのことを医療の文脈で可視化したものです。


Links


 
 
 

コメント


bottom of page