OpenAIが開発したチャットAIのChatGPTは、アメリカの医師免許試験であるUnited States Medical Licensing Exam(USMLE)に合格できると報告されるほど精度の高い文章を生成することが可能で、さまざまな分野への応用が期待されています。そんなChatGPTを用いて患者の治療にあたる医師が実際の使用例を語っています。
I’m an ER doctor. Here’s how I’m already using ChatGPT to help treat patients. | by Inflect Health | Jun, 2023 | Medium
https://inflecthealth.medium.com/im-an-er-doctor-here-s-how-i-m-already-using-chatgpt-to-help-treat-patients-a023615c65b6
Doctors Are Using ChatGPT to Improve How They Talk to Patients – The New York Times
https://www.nytimes.com/2023/06/12/health/doctors-chatgpt-artificial-intelligence.html
Inflect Healthの副社長であるジョシュ・タマヨ・サーバー氏はChatGPTを使用して患者の治療を支援する現役の医師の1人です。しかし、サーバー氏はChatGPTを患者の病状の診断に使用していないとのこと。サーバー氏は「ChatGPTは完璧な情報を入力した場合のみ、診断アシスタントとして機能してくれますが、病状は患者によって異なるため、正確な診断を行えることはめったにありません」と述べています。
サーバー氏は患者やその家族に対して専門知識を含んだ情報を分かりやすく説明する際にChatGPTを使用しています。
サーバー氏はChatGPTを患者の治療に役立てるようになった実例を紹介しています。ある日、肺に水がたまって呼吸困難になった96歳の認知症患者が搬送されてきた際に、その3人の子どもは「脱水症状を防ぐために点滴を打ってください」とサーバー氏や医療スタッフに対して何度も主張していました。
しかし、肺に水がたまる「肺水腫」の患者に対して点滴を投与すると、病状が悪化して最悪の場合死に至る可能性があります。サーバー氏は患者の家族に対して「あなた方がお母さんのことを心配しているのはわかります」と述べた上で肺水腫患者への点滴投与の危険性を忠告するも、子どもは「母はたびたび脱水症状で点滴を打っていました。点滴を打てばすぐに良くなるはずです」と繰り返し医師に詰め寄ります。
サーバー氏によると患者の家族とのこのようなやり取りは珍しいことではないとのこと。また救急救命室に務めるサーバー氏は、他の患者の診断や治療に早急にあたる必要がありました。
そこでサーバー氏は「脱水症状を発症している可能性があるも、重度の肺水腫や呼吸困難を併発している患者に点滴を投与しない理由を説明してください。母親のことを心配して混乱している人でも理解できるように、分かりやすく思いやりのある言葉で説明してください」とChatGPTに入力しました。
ChatGPTは「あなた方がお母さんのことを心配するのは当然のことです。重度の肺水腫や呼吸困難の場合、点滴を打てば水分補給ができるように思えるかもしれませんが、実際には症状を悪化させる可能性があります」と生成しました。
さらに「肺水腫になると、肺に過剰な水分がたまり、呼吸が困難になります。その状態でお母様に点滴を投与すると、肺内の水分がさらに増加する可能性があり、呼吸困難が悪化する可能性があります」と点滴を投与しない理由を説明。
また「私たち医師の目標はお母様の病状を回復させることです。医療チームは患者に対して最善のケアを行うことに専念しており、患者一人一人に合ったさまざまな治療法を用いつつ、お母様の肺の水分や脱水の状況を注意深く監視します。ご質問やご不明点がありましたら、遠慮なく医療チームに申しつけてください。私たちは一丸となって治療に取り組んでおり、お母様の回復に全力を尽くします」と生成しました。
その後サーバー氏はChatGPTが生成した文章を患者の家族に読み上げました。すると家族は納得した様子を見せ、その結果サーバー氏は治療に専念することが可能になりました。
この一件以来、サーバー氏はChatGPTを使用して患者やその家族に病状や治療のプロセスを説明するようになったとのこと。また「患者の病歴を表にする」「患者と医療スタッフが円滑なコミュニケーションができるようなメモの作成」などでサーバー氏はChatGPTを使用しています。一方でサーバー氏は「生成された文章をそのまま使用するのでなく、注意深くチェックする必要があります」と述べています。
テキサス大学病院のマイケル・ピグノン氏もChatGPTを用いる医師の1人で、医療スタッフと患者が定期的なコミュニケーションを取る際にChatGPTを使用しています。ピグノン氏はChatGPTに対して「私たちはアルコール依存症の新たな治療法を発見するプロジェクトを行っています。私たちの治療に素直に参加しない患者に対してどのように声かけをすればよいですか」と尋ねました。
最初に生成された文章は医療知識が乏しい患者にとっては理解が困難でした。そこで「小学5年生でも分かる文章で書き直してください」と指示したところ「もし、あなたがお酒を飲みすぎていると思うのなら、あなたは1人ではありません。多くの人がお酒の問題を抱えていますが、気分を良くしつつ、より健康で幸せな生活を送れるようにするための治療法があります」と生成しました。その後、ChatGPTはこの治療法の長所と短所を分かりやすく説明してくれたとのこと。
一方でイェール大学医学部のハーラン・クラムホルツ氏は「医師がこのようにChatGPTを使うことは、患者との適切な対話の方法を知らないことを認めることになります」と指摘しています。
サーバー氏は患者の治療におけるAIの利用の拡大を推進するとともに、AIによる直接的な患者の治療という長期的な開発目標ではなく、患者との対話といったすぐに実現可能なアプリケーションの開発を推進しています。また、患者のプライバシー保護に関するHIPAAコンプライアンスを順守するChatGPTのようなプログラムの開発が今後進むことを期待しているとのこと。
サーバー氏は「ChatGPTやその他の大規模言語モデルが医師の仕事を奪うという誇大広告がありますが、実際にはAIと医師は共存することが可能で、医療スタッフと患者に新たな可能性を指し示しています」と述べています。
この記事のタイトルとURLをコピーする