診療支援AI、怖くて使えない人へ。“安全に使う”最初の3ルール
医療現場でのAIの正しい使い方 前編です。
診療支援AIアプリ、ChatGPT使ってますか?
医療の判断の現場で使ってますか?
それとも事務仕事こなすときに使ってますか?
はたまた恋人や家族のように人生の相談をしていますか??(それはそれでアリ)
「使ってみたいけど、怖くて使えない」
「得体も知れないし、なんかイヤ」
たぶん、こういう人が一番多いんじゃないかと思ってます。
で、内科指導医としての結論を先に言うと、
日常臨床や教育にAIを使わないという選択肢は、現時点ではない
……これです。
ただし。
使い方を間違えると、患者さんにも、自分の成長にもダメージが入ります。
だから前編では「AIを使う前に、まずここだけは押さえておいて」という地雷マップを共有します。
今回は、僕が普段使っているものをまとめて「診療支援AI」といいますね。 僕は日常臨床で今日紹介する3種類のAIはすべて使ってます。
まず前提:僕が使ってるAI(特にMedGen Japan)
① ChatGPT(補助輪としては超優秀)
言わずも知れたLLMの先駆け。Plus版(3000〜4000円/月)で使ってます。
医療以外でも汎用性が高すぎて、普通に生活が便利になります。
ただ、臨床判断に持ち込むときは**「万能感」が一番危ない**。
“それっぽい答え”を、めっちゃ自信満々に言ってきます。
② MedGen Japan(僕のメイン)
日本産の診療支援AIアプリ。
疑問を入力すると、まず60秒以内に概要を把握できる初期回答を作ってくれて、
そのうえで文献などを紐づけた詳細回答を提示してくれます。
ここで大事なのが、検索範囲を「国内情報限定」にできること。
日本と海外で、保険適応や投与量が違うことって普通にありますよね。
あの「海外の話としては合ってるけど、日本でそれやる?」問題。
MedGenはそこを見つけやすくサポートしてくれるのが強いです。
以下から登録して使ってみてね(無料です) http://medgen.nihinmedia.jp/login?ref=CY2B… (登録無料・医師限定・免許登録が必要)
③ OpenEvidence(強いけど今回は脇役)
疑問を入れると短時間で回答してくれる診療支援AI。
アクセス制限のある主要医学雑誌の内容を含めた回答生成が強みとして語られることが多いです。
無料で使えてコメディカルもOK。
以下から登録して使ってみてね(無料です) https://www.openevidence.com/ (登録無料・コメディカルも可・免許登録が必要)
で、結局どう使えばいいの?→最初の3ルール
臨床現場でAIを使うなら、まずはこの3つ。
これだけ守ると、だいぶ安全になります。
ルール1:AIは「嘘をつく」前提で使う(ハルシネーション)
AIはハルシネーションといって嘘をつきます。
この嘘がやっかいで、
「明らかに変」ならまだしも、めっちゃ本当っぽい嘘を混ぜてきます。
しかも、こっちがその分野に詳しくないほど、見抜けません。
つまり、AIを使うほど安全になるどころか、
**知らない領域で“自信だけ増える”**みたいな事故が起こりうる。
だから、AIの出した答えはこう扱うのが正解です。
- 答えではなく、仮説
- 結論ではなく、たたき台
- 正解ではなく、次に何を調べるかのヒント
ルール2:AIは「見れてない情報がある」前提で使う(最新・鍵付き問題)
AIは基本、インターネット上に公開されている情報を中心に回答します。
でも現実には、
登録しないと見れないガイドライン、購読が必要な論文、施設内のプロトコル、
そういう“鍵のかかった情報”ってたくさんありますよね。
つまりAIの答えは、最新のガイドラインや重要論文が抜けた状態で生成されている可能性がある。
診療支援AIは文献と紐づけてくれるのが良いところですが、
それでも「抜け」は起こりえます。
だからこそ、
- 最新のガイドラインに当たる
- 添付された引用の一次情報を読む
- 自施設のルールに照らす
ここを飛ばすと、普通に危ないです。
ルール3:「自分の能力が落ちるパターン」を知って先に潰す
ここ、意外と見落とされがちなんですが、
AIの一番怖いところは「患者さんのリスク」だけじゃなくて、
自分の成長が壊れることです。
AIを臨床推論の代替として使って、
「自分で考えずにAIに考えてもらう」を続けると、
能力低下が3パターンで起きます。
① Never-skilling(ネバースキリング)
初学者に多い。
本来は教科書・二次資料・ガイドラインを読み込んで、
基礎の知識とスキルを自分の中に作る必要があります。
でもAIに聞くと、答えっぽいものが「ぽっ」と出る。
その学習段階を飛ばすと、
basic skills/knowledgeがない医師になりうる。これ、わりと恐ろしいです。
② De-skilling(デスキリング)
専門医以上の人ほど要注意。
AIに頼りすぎると、自分で考える・実行する機会が減って、
以前できていた判断や手技が衰えます。
「前は普通にできたのに、最近AIなしだと自信ない」
これ、起きます。
③ Mis-skilling(ミススキリング)
これはレベル関係なく全員に起こりうる。
AIの誤った回答を鵜呑みにして、
間違った知識や技術を蓄積・強化してしまう。
つまり、成長しているようで、
誤った方向に強化されて専門性が棄損される。最悪です。
AI時代の必須スキル:クリティカルシンキング
ここまで読んで「じゃあ怖くて使えないよ」ってなった人、いると思います。
でも、ここで終わるのはもったいない。
必要なのは、AIを捨てることじゃなくて、
クリティカルシンキングを徹底することです。
クリティカルシンキングは、
「情報を鵜呑みにせず、深く多角的に吟味し、最善の判断を下すための思考技術」。
AIの答えを見るときは、これを型として回すのが強いです。
- 本当にそうか?
- なぜそう言えるのか?(根拠は?)
- ほかの可能性は?
- この情報は信頼できる?(どこから?いつの?)
Whyを繰り返す癖。
これが、AIの“それっぽさ”に飲まれないための命綱です。
まとめ:AIで強化された「適応的実践」を目指そう
AIは味方にすれば、今までの自分の能力を飛躍させることもできます。
学習効率も上がります。
だから、特性を理解して使いましょう。
臨床現場でAIを使って適応的実践をする鍵は5つありますが、
前編ではまず3つ。
- 🔑 「検証し、そして信頼する」原則を守る
- 🔑 クリティカルシンキングを使いこなす
- 🔑 確固たるBasic knowledge/skillsを自分でも作り上げる
残りの2つは次回(後編)で話します。
- 🔑 AIとのかかわり方をタスクによって変化させる
- 🔑 DEFT-AIフレームワークを使って上手に教育する
明日から使える:診療支援AIの運用チェックリスト(超短縮版)
最後に、現場で“事故らない”ためのミニチェックリストを置いておきます。
- これは結論じゃなく仮説:まず「たたき台」として受け取ったか?
- 根拠を見たか:引用文献・ガイドライン・一次情報に当たったか?
- 自分の頭で1回考えたか:AIの前に/後に、自分の推論を書き出したか?
これだけで、間違った診療支援AI使い方をする確率がかなり下がります。
※このNote記事はNihin Mediaさんからの応援をいただいています。