このページの本文へ

画像診断AIに落とし穴、医学的に無関係の領域に注目して診断

2024年02月29日 06時37分更新

文● MIT Technology Review Japan

  • この記事をはてなブックマークに追加
  • 本文印刷

東北大学の研究チームは、医用画像診断AI(人工知能)が診断を下す際に、答えは正しくても、AIが診断に至った根拠と専門医の所見が必ずしも一致しているとは限らないことを明らかにした。医学的に妥当でない不適切な根拠に基づく診断は、思わぬ結果を招く危険があるため、このような危険性を認識して対策することで、より安全性の高いAIの臨床応用が求められる。

東北大学の研究チームは、医用画像診断AI(人工知能)が診断を下す際に、答えは正しくても、AIが診断に至った根拠と専門医の所見が必ずしも一致しているとは限らないことを明らかにした。医学的に妥当でない不適切な根拠に基づく診断は、思わぬ結果を招く危険があるため、このような危険性を認識して対策することで、より安全性の高いAIの臨床応用が求められる。 研究チームは今回、AIが医用画像中のどこに注目して診断したのかを可視化する技術を用いて、その注目領域の医学的な妥当性を詳しく解析。先行研究で高性能を達成した深層学習モデルの注目領域と、医師の診断に基づく重要領域を比較した結果、深層学習モデルの高い分類性能に反して、その注目領域の30~80%は医学的な重要領域と無関係であり、両者に大きな齟齬があることがわかった。 医用画像診断へのAIの応用が進められているが、AIが訓練データから何を学んだかなどの詳細はこれまで十分に解明されていなかった。同研究はAIによる医用画像診断の医学的な妥当性に懸念があることを示しており、今後、新たな訓練法の開発など、さらなる検証と対策を進める必要がある。 研究論文はジャーナル・オブ・イメージング・インフォマティクス・イン・メディスン(Journal of Imaging Informatics in Medicine)に、2024年2月9日付けで掲載された

(中條)

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ