マシン・インテリジェンスにおけるここ最近の進歩にもかかわらず、ロボットは比較的簡単なタスクでも新しい状況に適応するのにいまだ苦労している。たとえば、マグカップを持ち上げ、ラックにかける場合、マグカップの形や大きさ、色、向きが少し変わるだけで、ロボットは混乱してしまう。
マサチューセッツ工科大学(MIT)の研究チームは新しい論文で、比較的少ないデータでもロボットが学習を一般化(汎化)できるようにするための新しい手法を提案している。マグカップや他の対象物を持ち上げたり、置いたりするために必要な数箇所のキー・ポイントを抽出できるようにニューラル・ネットワークを訓練し、持ち方や動く方向に関する視覚的なロードマップをロボットに与える方法だ。テストでは、マグカップに関してロボットが把握する必要のあるキー・ポイントは3カ所(側面の真ん中、底、持ち手)だけだった。靴の場合は6カ所になる。
これまでの手法では、ロボットが見たことのないマグカップを持ち上げるのに数百、数千の訓練例が必要だったが、今回の方法なら数十で事足りる。研究チームは、マグカップでは60の状況、靴に関しても60の状況でニューラル・ネットワークを訓練し、同様のレベルの性能を達成した。データセットに存在しなかったためにシステムがハイヒールを持ち上げ損ねたときも、ハイヒールの状況をいくつかデータに追加することで、素早く問題に対処できた。
研究チームは今後、食器洗浄機を降ろしたり、キッチンカウンターを拭いたりするなど、より複雑なタスクに対処するためにこの方法を利用したいと考えだ。