人気ブログランキング |

AIを使った医療機器開発

米国で初のAI医療機器が承認されたとのことだ。
https://www.fda.gov/NewsEvents/Newsroom/PressAnnouncements/ucm604357.htm
米国食品医薬品局(FDA)は、糖尿病患者の眼疾患糖尿病性網膜症の軽度以上のレベルを検出するために、人工知能を使用する最初の医療機器の販売を許可した。糖尿病性網膜症は、高レベルの血糖が眼の後ろの光感受性組織である網膜の血管に損傷をもたらす場合に起こる。糖尿病網膜症は、糖尿病を患っている3,000万人以上のアメリカ人の視力喪失の最も一般的な原因であり、労働年齢の成人の視力障害および失明の主要な原因である。「網膜症の早期発見は、糖尿病患者数百万人のケアを管理する上で重要な部分ですが、糖尿病患者の多くは糖尿病網膜症のスクリーニングを十分に受けていません。その約50%が年1回、 FDAの機器・放射線健康センターの眼科・耳・鼻・咽喉機器部門ディレクター、Malvina Eydelman(MD)は述べています。"今日の決定は、プライマリケア医のオフィスで使用できる新しい人工知能技術のマーケティングを可能にします。FDAは、必要とされる医療への患者のアクセスを改善することができる、安全で効果的なデジタル健康機器の利用を引き続き容易にするでしょう。
いわゆるスクリーニング用とで医師の診断を受けるべきかどうかを判断するソフトウェアのようだ。まずはここからという感じか。

開発したのはIDxというベンチャー企業。2010年設立で、3.6Mドルしか調達していない。上記記事によると、900人の臨床試験をやったようだ。スクリーニング用途のため、健常者と患者の両方を加える必要があるためこのような大人数になっているのだろう。

ところで、AI医療機器は日本でも話題だ。大企業、ベンチャーいろんなところで開発している噂を聞く。ところで、AIを使った医療機器を開発する上で何がポイントになるのだろうか。
日本で医療機器の承認を管轄しているPMDAがAIを使った医療機器について最近語ったのは下記のシンポジウムだろうか。http://tech.nikkeibp.co.jp/dm/atcl/feature/15/327442/112100149/?ST=health
そのうえで、“審査の目から見たAI機器の特徴”として加藤氏が挙げた点に、次の3つがある。(1)ブラックボックス性、(2)性能の継続的な変化、(3)データセットの信頼性、である。 (1)のブラックボックス性とは、AIの挙動の根拠が機器の開発者にとっても未知数なこと。「従来の医療機器では開発者が機器の得意・不得意を理解し、それを基にしたリスクマネジメントができた。これに対しAIを活用した医療機器では、未知のデータに対する振る舞いは開発者でも予想が困難」(加藤氏)。
(1)ブロックボックス性とは、ディープラーニングの特性上なぜそのような結果になったのかが人間にはわからないことで、リスクマネジメントができない、ということのようだ。最近韓国の囲碁のすごい人とグーグルのAIが対戦した際に、AI側が暴走した事例があった。これが医療機器で起きる可能性がある。というよりどんな時に暴走が発生するか、が想定できないのが問題だということだ

(2)性能農継続性の変化、は承認後も学習し続けることで、承認時の特性と変わってしまう、ということだ。
(3)は、承認後に学習させるためにどんなデータを使うか、そのデータは信頼性があるか、ということだ。

ところで、承認後もそのAI医療機器は学習を続けるのだろうか。もしそれが不要なら(2)、(3)は無視できるはずだ。AI医療機器は完全に医師の関与が不要になることが一番のメリット。今回の米国の例も医師からの診断の前段階なので当然医師の関与はない。
つまり、AI医療機器が診断する現場には医師はおそらくおらず、その診断ごとにリファレンスデータ(〜教師データ)はとれず、つまりAI医療機器が使われていくところで同時に学習は行われない可能性が高いのではないかと思われる。

AI医療機器を開発する企業はAI医療機器をさらに精度をあげるべく学習させるとしたら、おそらく改めて、臨床試験を行い、承認等の手続きをとる気がする。改良医療機器になるだろうし、大したコストはかからないだろう。
なので、(2)、(3)は、承認後に「その医療機器」が学習し変化することはたぶんないので、改めて問題にならない気がする。

(1)は改めてどうだろう。どんな医療機器でさえ、一定の確率で誤った結果をだす。AI医療機器もしかり。ここで言っているのはその間違い具合、得手不得手が予測困難だということだ。通常の医療機器であれば、こういう場合にはこの医療機器は間違いやすい、などと注意事項を書くのだろうが、それができないということだろう。ところで、医療機器の承認のポイントは、その有効性がリスクを上回っているかどうかだ。この点からおそらく、(1)はゴリ押しされる気がする。

こうして見ると、AIを使った医療機器を開発するときのポイントは、単純によいAIを開発するという点以外で特に大きな障害はないように思う。あるとすれば、今回の論点とはずれるが、唯一の障害は医師会の反発だろう。遠隔診療と同様に、保険点数が少ししかもらえない、用途が限定される(特に医師不足の領域)、などを指定される可能性が高い。

国内では、AI医療機器を開発する特にベンチャー企業がたくさんいるが、この点で足をすくわれるところが多い気がする。いわゆるIT✖️医療の領域には、ITと医療の両分野の知見が必要だが、IT側が主導するか、医療側が主導するか、で成功確率が変わる気がする。医療分野は、命に関わるし、規制も多くいわゆる大人のビジネス。渋谷の某ベンチャーはこの大人の部分が足りなかった。

国内のAI医療機器ベンチャーは、うまく両方を取り込んでいるように見えるが、若いエンジニアとあまり臨床経験のない医師とのコンビのチームが多い気がする。このチーム体制で医師会をうまくコントロールできるか、空気を読めるか。この点がポイントになると思われる。



by km_g | 2018-04-14 17:20