こんにちは。当ブログをご覧いただき、ありがとうございます。
管理人の白狐(しろぎつね)です。
2021年8月、電気自動車で有名なアメリカ企業のテスラが人型のロボットを発表しました。同社が研究しているAI技術を応用したもので、公開された動画を見ると本物の人間のようで人々を賑わせましたね。
ソフトバンクが開発したペッパーくんよりもはるかに人間らしく、自然で柔軟な動きをしており、AI時代の到来を感じさせます。
AIと言えば近未来的なテクノロジーですから、IT化に遅れがちな病院の関係者は「うちには関係ないな」と傍観している方も多いのではないでしょうか。
しかし実は、医療業界にもAIの時代がすでに到来していることをご存知でしょうか。
え? AIが人に取って代わるなんてあり得ないでしょ・・・。
そう思っている方は、今まさに起きているトレンドを見過ごしているかもしれません。
今回は、医療業界で静かに、そして確かに進行するAI化について取り上げます。
目次
病院で使うシステムにも、すでにAIが導入されている
AIって、人に変わって自動で作業してくれるロボットでしょ? 病院にロボットを置くなんて想像できないね。
いやいや、ロボットは一つの例ですよ。病院で使うシステムの中にも組み込むことができるんです。
例えばこんな例があります。
例1 社会保険支払基金のレセプト審査
社会保険支払基金は、2021年9月の審査分から、人による審査が必要なレセプトをAIで自動仕分けし、人の目でチェックする審査を2割とすることを決めました。
No.701 支払基金、人による審査8割減目指し今年9月審査分からレセプト審査にAI導入 | ワタキューグループポータルサイト
医療事務の経験がある方には説明不要でしょうが、レセプトというのはいわば病院の請求書であり、売上の源となるもの。毎月、医療事務が適切な請求書を作成し、国保連合会や社会保険支払基金など支払元へ請求して、売上に結びつけます。
社会保険支払基金らは、請求書をそのまま盲判(めくらばん)で受け付けるわけではなく、本当に必要な診療行為だったのかを審査した上で支払います。これを今までは人の手で行ってきており、審査側も医師の目を入れるなど職人技で応じてきたわけです。
ところが職人技であるがゆえに、人によって審査基準や査定のさじ加減にバラツキがありました。また支払基金は都道府県別に支部があるため、支部ごとに審査におけるローカルルールが存在するなど、請求する側にとって混乱をきたす原因にもなっていました。
以前まで審査を通っていた請求が急に通らなくなった、なんて経験は医療事務なら誰でもありますよね。
レセプトは医療機関の数だけ存在しますし、その中身も数も千差万別。こうした背景から、支払基金は「簡単なレセプトはAIに処理させ、判断が難しいものだけを人手でチェックする」方向へと舵を切ったのです。
機械に任せれば統一されたルールで処理でき、審査員は難解なレセプトの審査に集中できるようになります。
例2 介護システムのケアプラン作成
介護システム大手のNDソフトウェアは、介護システム「ほのぼのNEXT」において、利用者のケアプランをAIで自動作成する機能を実装しました。
AIに蓄積されたビッグデータを活用し、これまでシステムに溜め込んだデータから利用者の1年後の状態を予測し、最適なケアプランを自動で提案してくれるというものです。
自動で作ってくれるなんてすごいね。
AIケアプラン | NDソフトウェア(株)介護ソフト(システム)、健診システムなら「ほのぼの」
将来の予測を数値化・グラフ化して見せてくれるスグレモノで、利用者の家族にプランを説明する際にも根拠資料となります。
このケアプラン作成は介護現場で大変な労力を要するもので、これも知識と経験が物を言う分野。それらノウハウを搭載したAIが、人に代わって作業してくれるのです。
例3 画像診断
画像診断は医療業界の中でも特にAI化が顕著に進んでいる分野であり、病院関係者には説明不要でしょうが取り上げておきます。
例えば胃がんの診断をするときに、胃カメラで撮影した画像をAIに読み込ませ、病変の疑いがある箇所を診断してくれるというもの。最近では、胃カメラ挿入中のビデオをリアルタイムに解析して、その場で診断結果を出すシステムも登場しました。
AIによる画像診断システムはすでに実用化されており、導入している病院も増えてきています。
しかし、AIによる解析はあくまで「医師の診断をサポートするもの」で、日本においては最終的に医師が判断しなければならない決まりになっています。
やっぱり今の時代はAIか。何でも出来そうだね。
万能に見えるAIにも、もちろん課題があります。SEとしてはそこに注目したいですね。
AIが抱える課題とは
AIが抱える課題とは、いったい何でしょうか。
今年開かれた、国際モダンホスピタルショウ2021に登壇された浜本隆二氏(国立がん研究センター勤務・日本メディカルAI学会理事)は、その講演のなかでAIの課題を次のように挙げました。
医療AIの臨床応用を阻む3つの課題とは【医師会員30万人突破記念企画】|m3.com編集部|医療情報サイト m3.com
(上記は会員限定のページですが、参考にURLを貼っておきます)
汎用化が難しい
AIは、大量のデータを解析することでその中にある一定の法則性を見出し、それを汎用的に使えるロジックへと昇華させていきます。素となるデータが重要であることは言うまでもありません。
仮に、これらのデータに外れ値(明らかにほかと異なる異常な値)が出たとき、これに大きく影響を受けてしまい、外れ値を誤差の範囲で収められないことがあります。これを「汎化誤差」と言い、ロジックを汎用化させる上で障害となります。
通常、研究等で大量のデータを扱う場合は外れ値を除外するのが一般的。
「外れ値がほかと比べて異常な値である」ことは人の目で見れば明らかですが、AIにそれを判断させるのが現状では難しいというわけです。
異常を異常とみなすのって、案外難しいものだね。
これはAIの判断結果が、場合によってはあらぬ方向へ向かう可能性を示しています。
解析のブラックボックス化
AIによる解析がブラックボックス化する、つまり解析の過程が見えなくなるということです。
AIの判断結果が「どうしてそうなったのかを説明できない」ということね。
例えば車の自動運転で、テスト走行では問題なかったのに実地訓練したら変な方向へ行ったり、止まったりしてしまった場合。AIは「データを学習した結果、そうなった」としか答えられず、「どうしてそういう判断に至ったか」を説明できないわけです。
先の胃がんの画像診断の例では、あくまでAIが病変の疑いがある箇所をお知らせしてくれるだけなので、サポート役に過ぎません。
しかし診断そのものをAIに任せてしまっては、理屈を説明できない以上、その結果に従うのは危険です。仮に自分が患者だとしたら、「うまく説明できませんが、AIがあなたはガンだと言ってます」なんて言われても納得できないですよね。
そもそも、AIに診断を任せた場合、誰がその責任を取るかが問題になります。
責任の所在
AIの責任を誰が取るのか。最大の課題は、これに尽きると言っていいでしょう。
日本では、AIはあくまで診断の補助に使われるべきもので、最終責任は医師にある、という解釈がされています。
これに対し、医療先進国であるアメリカでは、AIの責任は開発者が負うことになっているようです。
え・・・じゃあAIの診断結果が間違いだったらどうなるんだろう?
そうですよね。そこがAI活用の焦点と言えます。
良いことづくめに見えるAIですが、技術者としてはこうした側面があることを知っておかなければなりません。
また、AIがクリアすべき課題は技術面だけではありません。
ヨーロッパではAIに法規制をかける動きが出てきました。AI製品の安全性を評価したり、認証取得を求めたりするものです。
先進国たるヨーロッパの動向は注視すべきと言えます。これまでも電気自動車への転換やGDPR(個人データの保護規制)といった政策を諸国が足並み揃えて進め、これに世界の国々が追随しています。ヨーロッパで法整備が整えば、いずれわが国にもその波が来るはず。
さまざまな法令の制約を受ける病院にとって、法規制の動向はチェックしておきたいところです。
いずれにしても、AIの実用化は進む一方。「補助ツール」としての位置づけであることを理解しつつ、検討を進めていかなくてはならないですね。
AIをいかに病院に取り込んでいくか
AIと言えば遠い未来の話に聞こえます。しかし今確かに進行しているAI化の実態は、ロボットが人に代わるようなダイナミックな変化ではなく、人手不足や後継者不足といった足元の問題を解決してくれる、補助ツールの普及であると考えることができます。
実際に医療機関で使うシステムにもAIの技術がすでに取り入れられ、活用されています。院内SEである私もこうしたAIの進歩をウォッチし、自院での活かし方を考えていきたいと思います。
最後までお読みいただき、ありがとうございました。
--------------------------------------------------
当ブログでは、病院に勤務するシステムエンジニアの私が、関係法令の改正やパソコンのトラブルシューティングなどをSE目線から紹介しています。面白そうだと思っていただけたら、ぜひブラウザにお気に入りの登録をお願いします!
▼院内SEの知名度向上を目指しブログ定期更新中!
応援してくださる方は、下の「人気ブログランキング」ボタンをクリックお願いします!