マサチューセッツ工科大学(MIT)は2月28日、新たなカレッジ(学部)の開設を祝うイベントを催した。 新設される「スティーブン・アレン・シュワルツマン・コンピューティング・カレッジ」には、AI研究の学際ハブ創設を目指して10億ドルの資金が投じられる。うち3億5000万ドルを寄付する投資会社ブラックストーンのシュワルツマン共同創業者兼CEOは、 MITのラファエル・リーフ学長との対談の中で、以前の発言と同様、中国が国を挙げて取り組むAI戦略に対して、米国の競争力を高めるのが資金を提供する主な理由だと述べた。
このコメントを皮切りに、国家間の技術開発競争に関するやりとりが相次いだ。AI研究はデータ量が物を言う物量戦であり、使えるデータが多いほど有利だ。しかし中国が米国よりはるか多くの人口を抱えている一方で、米国はデータのプライバシーを重視している。この状況で、米国はどうすれば中国を打ち負かせるのか? 米国が「勝つ」見込みなどあるのだろうか?
こうした疑問に、リーフ学長は次のように答えた。「機械に何かを教え込むためには膨大なデータが要るというのが、現在の技術水準です。しかし、最新の技術水準は、研究によって変化するものです」。
リーフ学長のコメントは、AI本来の性質について気づかせてくれる重要なものだった。AIが登場してから現在まで、その技術水準は非常に速いスピードで進化してきた。AIテクノロジーがいまとはまったく違う姿に変貌するまであと一歩のところまで来ているということは、十分にあり得る。つまり、常にデータばかりが重要とは限らないのだ(「深層学習の終わりの始まり arXiv投稿論文に見るAI研究のトレンド」を参照)。
実際に、ごく少ないデータで実現可能な新手法の研究がここ数年間でいくつか始まっている。MITのジョシュア・テネンバウム教授(脳・認知科学)は、子どもが少数の例をもとにして知識を一般化する過程に着想を得た「確率論的学習モデル」の開発に取り組んでいる。
リーフ学長は自身のビジョンを次のように語った。「私たちは脳がどのように学習するかを調べることで、現在の技術水準を生み出しました。今度はその技術を使って、脳が学習する仕組みを(さらに)研究することができます」。人間の脳そのものが学習のために必要とするデータ量はさほど多くはない。 脳が学習する過程を詳しく理解すればするほど、新たなアルゴリズムでその仕組みをより緻密に模倣することが可能になるだろう。