ChatGPTを診療で使ってみた話

AIと診療

最近、診療でChatGPTを使うようになりました。
「え、医者がAIに頼るの?」と思うかもしれません。
実際に使ってみると、意外と“いい相棒”になることもあって、思ったより実用的なんです。

この記事では、皮膚科レジデント(後期研修医)の僕が、ChatGPTを診療にどう活用しているか。
そして、実際に使って感じた「便利さ」と「危うさ」の両面について書いてみます。


使ってみたのは、皮膚の病気の治療方針を調べたとき

ある日、「水ぶくれが全身にできる自己免疫性の皮膚疾患」について、治療方針を再確認したくなりました。
いわゆる「類天疱瘡(るいてんぽうそう)」という疾患です。

この病気は高齢者に多く、皮膚の深い部分に異常な抗体ができることで、全身に水ぶくれが生じるものです。
放っておくと感染症のリスクもあるため、早期の診断と治療が大切です。


ChatGPTに聞いてみたら、意外と使える回答が

ChatGPTに「類天疱瘡の治療方針を簡潔に説明して」と入力してみたところ、
返ってきたのは次のような内容でした。

「類天疱瘡は自己免疫反応によって皮膚に水疱(すいほう:水ぶくれ)が生じる疾患です。
治療の第一選択は・・・
・・・感染症リスクや骨粗鬆症などの副作用管理も重要であり、治療開始後は定期的なモニタリングが必要です。」

正直なところ、「お、これ使えるかも」と思いました。
学生時代に勉強した内容や、ガイドラインをもとに頭の中で整理する作業を、数秒で手伝ってくれる感覚。
患者さんに話す前の“頭の準備運動”としては、かなり助かるツールだと感じました。


でも、落とし穴もあった

ただ、安心して全部使えるかというと、そうでもありません。
同じ回答の中に、実際には存在しないガイドラインを参考文献として挙げていたんです。

見た瞬間に「ん?」と思って確認したら、やっぱり存在しない。
AIは“もっともらしいウソ”を自然に混ぜてくる(=ハルシネーションとよばれる)ことがあるので、医療の現場で使うには注意が必要です。


AIを使いこなすには、“嘘を見抜く力”が必要

ChatGPTを診療に活用するには、AIの出力を最終的に自分で吟味する「読む力」=臨床判断力が不可欠です。

知識のある人が使えば、思考の整理や確認に活用できて、スピードと正確さの両立も可能。
一方で、知識がまだ浅い段階で頼りすぎてしまうと、間違った情報に気づけず、判断が鈍ってしまうリスクもあると感じました。

まさに“諸刃の剣”。
でも、正しく扱えば、思考を補助する超優秀な道具にもなります。


まとめ:AIは、“使いこなす医者”と組むと最強

ChatGPTを診療に使ってみたことで、僕の中では「AI=万能な先生」ではなく、
「必要なときに的確にサポートしてくれる優秀な助手」という感覚に変わりました。

最終判断はあくまで人間
でも、その判断を補助し、情報を整理し、視野を広げてくれるAIは、これからの医療現場でどんどん存在感を増していくと思います。

この記事が、同じように「AI、使ってみたいけど実際どうなんだろ?」と気になっている人のヒントになれば嬉しいです!

コメント

タイトルとURLをコピーしました