このページの本文へ

視覚情報によるロボットのていねいな物体操作を実現=産総研

2023年10月03日 06時52分更新

文● MIT Technology Review Japan

  • この記事をはてなブックマークに追加
  • 本文印刷

産業技術総合研究所の研究チームは、視覚情報から物体間に働く力を想起する人工知能(AI)技術を開発した。AIが視覚情報だけから、「崩しそう」「つぶしそう」と想像し、物体を壊さないように、人間らしい推論に基づく行動を立案することが可能になる。

産業技術総合研究所の研究チームは、視覚情報から物体間に働く力を想起する人工知能(AI)技術を開発した。AIが視覚情報だけから、「崩しそう」「つぶしそう」と想像し、物体を壊さないように、人間らしい推論に基づく行動を立案することが可能になる。 研究チームは、画像1枚(カメラ1台)から未知の物体間に発生するおおまかな力分布を、AIを用いてリアルタイムで可視化することに成功。さらに、力分布を理解したロボットが、周辺の物体の損傷が小さくなるようにして指定された対象物を持ち上げるなどの行動ができることを確認した。 同チームは、力分布をAIで可視化するにあたって、物理シミュレーター上で物体間にかかる力を可視化した仮想的な経験データを構築。仮想的な経験から視覚と力の関係をAIに学習させた。機械学習における「ゼロショット転移」により、AIの学習に使われていない未知物体が対象物に含まれていても対応できるという。 今後、ロボットによるていねいな物体操作や、自動運転における事故予測などに役立つことが期待される。今回の成果は、2023年10月1日から5日までデトロイトで開催されるロボット分野の国際会議「IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS)2023」で発表される。

(中條)

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ