このページの本文へ

まるで"ChatGPTロボット" 会話しながら動くヒューマノイド、OpenAIと提携のFigureが発表

2024年03月14日 17時30分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

 アメリカのAIロボティクスベンチャーFigureは3月13日、「ChatGPT」などを開発するOpenAIとの提携によって、同社が開発するヒューマノイドロボット「Figure 01」に高レベルの視覚および言語能力が追加されたことを発表。あわせてデモ動画を公開した。

ChatGPTが頭脳、Figureが肉体を担当

 公開された動画では、「今、何が見えますか?」という質問に対し、Figure 01が「テーブルの中央にお皿に乗った赤いリンゴ、カップとお皿が乗った水切りラック、そしてあなたがテーブルに手を置いて近くに立っているのが見えます」と正確に見えたものを説明しているのが確認できる。

 続けて「何か食べ物をもらえますか?」という指示に対し、Figure 01は「食べ物」である「リンゴ」を指示者に手渡している。

 なぜこのような行動をしたのか説明させると「テーブルにある食べられるものはリンゴだけだったので、それをあなたに渡しました」と答えた。指示の内容を論理的に理解していることがわかる。

 さらに「今の状況から判断すると、目の前の食器は次にどこに行くと思いますか?」という問いに対し「テーブルの上のお皿やカップは、次に水切りラックに入ると思います」と回答。実行してみせている。

 Figure公式のXへの投稿によると、これは「OpenAIモデルが提供する高レベルの視覚および言語知能」と「Figureニューラルネットワークが提供する速く、低レベルで熟練したロボットの動作」によって実現したと説明されている。

 なお、ここで言う「低レベル」にネガティブな意味はなく、物をつかむ、移動する、バランスを取るなどのロボットのハードウェアにより近い部分、物理的な動作やコントロールに直接関わる部分のことを指している。

 つまり、OpenAIのモデルが「頭脳」として機能し、Figureのロボットがその指示に従って「体」として動くことで、より高度で複雑なタスクの自動化が可能になるということだ。

マイクロソフト、NVIDIAなどビッグテックも出資

 Figureは2022年の創業時、1年以内に二足歩行ロボットを開発するという目標を掲げ達成すると、2月29日(現地時間)にはシリーズBラウンド(事業拡大のための大規模資金調達)を実施し、マイクロソフト、OpenAI Startup Fund、NVIDIA、ジェフ・ベゾス(Bezos Expeditions経由)などから計6億7500万ドル(およそ998億円)を調達し、26億ドル(およそ3844億円)の評価額を達成している。

 この資金は、人型ロボットの商業展開を加速するために使用される。今回のOpenAIとの提携の他にも、マイクロソフトとは「Microsoft Azure」をAIインフラ、トレーニング、ストレージに活用することで協力体制を築いている。

 だが、ロボットの完全な自律性の実現にはまだまだ多くの課題が残っており、本格導入までには時間がかかることが予測されている。

■関連サイト

カテゴリートップへ

ピックアップ