このページの本文へ

前へ 1 2 次へ

特別企画@プログラミング+ 第21回

国内外から約60名の登壇者が集結。多分野からの視点がはげしく交錯した国際シンポジウムの様子をお届け。

総務省主催『AIネットワーク社会推進フォーラム』レポート

2017年05月03日 00時00分更新

文● 窪木 淳子、編集● 杉本 敏則

  • この記事をはてなブックマークに追加
  • 本文印刷

 ここからは、AI開発や情報工学の研究者の視点からの講演内容をまとめる。

特別講演『AIネットワーク化の本質と将来』

長尾真氏(推進会議顧問、京都大学名誉教授/元・京都大学総長)

 推進会議顧問の長尾真氏(京都大学名誉教授)は、『AIネットワーク化の本質と将来』と題して、“汎用のAIは可能か”、“人工的な生命体ロボットの可能性はあるか”といった点にも言及した。

講演『AIの高度化がもたらすインパクト』

 Googleの主席研究員で、Partnership on AI評議員でもあるグレッグ・コラード氏による『AIの高度化がもたらすインパクト』は、このシンポジウムでもっとも注目されたスピーチのひとつだっただろう。

グレッグ・コラード氏(Google Inc主席研究員、Google Brain共同創始者、Partnership on AI 評議員)

 コラード氏はまず、AIと機械学習、ディープラーニングについての解説をしたあと、GoogleのAI関連プロダクトを紹介。Google翻訳(画像翻訳、英→日翻訳)やメールプログラムのスパム対策、会話型AIの『Googleアシスタント』といった機械学習の自社における実例はもちろん、医療分野で糖尿病網膜症やガンの画像診断サポートシステムを開発中であること、エネルギー分野での省エネシステム、農業分野でのキュウリの出荷時選別システム、製造分野での食品工場の品質管理など、多分野に乗り出しているGoogleのAI関連開発状況を紹介した。

 「このようにAIはすでに実践されている」として、コラード氏は「技術とツールを、安全と平等性を確保しながら世界中の人々に配布する」とGoogleとしてのミッションを強調。開発の透明性については、Googleが開発し、オープンソースとして公開した機械学習ライブラリー『TensorFlow』を紹介、説明責任については、「説明責任を果たしながらもユーザーの期待に応えていく」として、Googleの『HOW SEARCH WORKS(検索の仕組み)』のページを紹介した。

 最後には、開発側からの政策立案への提案として、下記の6点について説明して、講演を締めくくった。

  1. 研究への支援
  2. 教育と多様性の促進
  3. マルチステークホルダーへの対応と対話の促進
  4. 国家間および国際会議でのベストプラクティスの共有
  5. データによるイノベーションの促進とオープンデータの標準化奨励
  6. 柔軟性の確保

講演『AIの高度化がもたらす社会的・倫理的課題』

 Skype共同創業者で、FLI (Future of Life Institute)の共同創設者であるジャン・タリン氏は、『AIの高度化がもたらす社会的・倫理的課題』と題して講演。宇宙開発を例に、「宇宙船でいえば操縦メカニズムがまだできていないのが、AI開発の現状だ」と話を始めた。

ジャン・タリン氏(スカイプ共同創業者、Center for the Existential Risk共同創設者、Future of Life Institute共同創設者)

 様々なバックグラウンドを持つ多数の専門家を集結して作成されたAI開発の基礎原則を紹介しながら、「AIのリスク低減に向けては研究成果が出てきてはいるが、安全研究にかける資金は限定的でまだ主流にはなっていない」とアピール。そして、「これまで50年間AIのリスクは無視されてきた。しかし、この数年でそのブランクは挽回できていくのではないか」との見通しも述べた。

『AI開発ガイドラインの策定に向けて』

 日本からの報告は、推進会議幹事・開発原則分科会長の平野晋氏(中央大学教授)。「開発原則やガイドラインのようなソフト・ロー(強制力はない規範的な規格や基準)は、AIシステムの開発を阻むのか」との視点を最初に提示しながら、開発原則分科会が検討中の『AI開発ガイドライン』の方向性について、『分野共通開発ガイドライン』と『分野別開発ガイドライン』に分けて体系化されていくことなどが説明された。「便益を生む開発を止めないためにも、ハード・ローではなくソフト・ローを。ソフト・ローは安心の役割を果たすはずだ。開発原則やガイドラインは、今後の健全な開発につながっていく」と報告をまとめた。

パネルディスカッション『AIネットワーク化のガバナンスの在り方』

 1日目の最後はパネルディスカッションで、これまでの登壇者を中心に10名が参加、『AIネットワーク化のガバナンスの在り方』として、下記の4点が議論された。

  1. 規制のあり方
  2. AIの研究開発にガイドラインは必要か
  3. 開発原則の内容についての意見
  4. 倫理的課題

【写真中央】谷脇康彦氏(総務省情報通信国際戦略局長)

 議論をまとめて、総務省情報通信国際戦略局長の谷脇康彦氏が、「明確にポジティブに、AIのリスクとベネフィットをバランスよく話し合っていきたい」とコメントした。

1日目を総括して

 ここまでレポートしてきたところが、今回の国際シンポジウム1日目の内容である。このシンポジウムは、あくまでも“AIの研究開発そのものに関するカンファレンスではない”。しかし、内容を振り返ると気づくのは、法学・政策関係者と、研究開発に従事する研究者・技術者との認識のズレである。

堀浩一氏(推進会議開発原則分科会技術顧問、東京大学大学院工学系研究科教授)

 “やがて来るAIの驚異”につながる文脈に引っぱられた視点からの発言は、法学・政策関係者に目立った。パネルディスカッションでの推進会議開発原則分科会技術顧問の堀浩一氏(東京大学大学院工学系研究科教授)の、「AI関連の研究者として、私はガイドラインは必要だと思う。しかしガイドラインについて、開発を阻害するのではないかと、多くの人から批判も受けているのも事実だ。ステークホルダー間のオープンな対話が必要なのは間違いない」という発言は、異なる文脈が交錯してはいるが、それらの落とし所が今ひとつ定まっていないというような、AIにまつわる現状を象徴する意味で、印象に残るものだった。

 この双方の間に横たわる溝のようなものは、2日目にもつながっていく。


2日目(3月14日)は座談会・パネルディスカッションが構成の中心

 2日目のプログラムは、午後からのパネルディスカッション(全4回)が中心となる構成。テーマとして掲げられたのは下記の4点であった。

  • AIネットワーク化がもたらす豊かさと幸せ
  • AIネットワーク化と倫理
  • AIネットワーク化がもたらす便益の増進
  • AIネットワーク化がもたらすリスクへの対応

 各回それぞれに、法学、経済、情報学、倫理学、教育学といった人文系の研究者、政策関係者、AI関係の研究者・技術者、海外からの出席者が入り交じり、専門分野と立場が違う7~8名が各回に参加。たっぷり1時間ずつのセッションとなった。

 法学・政策関係者からの問題提起や発言は、1日目にほぼ出つくした印象もあったため、2日目は、各パネルディスカッションでの研究開発当事者側からの耳目をひいた発言を拾い、紹介していくことにする。

パネルディスカッション『AIネットワーク化がもたらす豊かさと幸せ』

 最初のパネルディスカッション『豊かさと幸せ』では、冒頭で田中浩也氏(慶應義塾大学環境情報学部教授)が、テクノロジーと社会の関係性について数分間のプレゼンテーションを行った。

田中浩也氏(推進会議影響評価分科会構成員、慶應義塾大学環境情報学部教授)

田中氏 「技術と社会の関係では、技術が社会を変えていく“技術決定論”の考え方、社会(文化)が技術のあり方を決定づけていく“社会(文化)決定論”の考え方、この2種類があるように思う。肝心なのは、この両面をどう相互作用させ、技術と社会が“共進化”していく“構成主義的技術論”の構造を作れるかどうかだ。このような場合、重要なのは制度づくり、法づくりではなく、“技術の使い道”を使用者側(社会・文化)が発見していくことだろう。歴史では、印刷機も電話もパーソナルコンピューターも、現在の使い道や可能性が発見されるまでに時間がかかった。その技術が発明された当初の想定というのは、後にたいてい裏切られている。新しいテクノロジーの使用方法は試行錯誤されていくものである」

 田中氏は、専門のデジタルファブリケーションとファブラボの活動を紹介、AIについてもこのような方法を使えるのではないかと、「市民AIラボ」を提案した。

 実積寿也氏(九州大学大学院経済学研究院教授)は、「経済学者の立場から発言しておきたい」と言う。

実積寿也氏(推進会議開発原則分科会及び影響評価分科会構成員、九州大学大学院経済学研究院教授)

実積氏 「最近実施したアンケート調査では、日本の上場企業のうちAIを導入している企業は33パーセント、そのうち過去3年で非常に便益が出たと答えたのが22パーセント。かけあわせると7パーセント程度にすぎない。われわれにはまだAIのポテンシャルがあまり見えていないことを認識したうえで議論をするべきだ。また、AIは“ムービングターゲット”であるから、現在のAIを規制対象にすることには疑問がある。産業政策の観点からは、ガイドラインを作ってリスクを抑えていく視点はたしかに大切だが、ガイドラインの及ばない第三国で開発するのは十分に可能なことだ。そうしたリスクも考えるべきで、ガイドラインを策定するのであれば、それを活用することが企業の便益につながるものにしなくてはならない」

パネルディスカッション『AIネットワーク化と倫理』

 2つ目のパネルディスカッション『倫理』では、人工知能学会で倫理委員長を務めてもいる松尾豊氏(東京大学大学院工学系研究科特任准教授)が、今年の2月に発表した『人工知能学会倫理指針』について背景などを解説した。そのうえで、次のように述べる。

松尾豊氏(推進会議構成員、内閣府『人工知能と人間社会に関する懇談会』構成員、東京大学大学院工学系研究科特任准教授、人工知能学会倫理委員長)

松尾氏 「AI研究者としては、分野や立場を超えた対話が重要だと考えている。私たちは社会にあるコンサーン(懸念)を学ばなければならない。しかし、社会の側も、AIの研究をもう少し学んでほしい。メディアでは日々AI関連のニュースが流れているが、ニューラルネットワークの学習のしくみである“誤差逆伝播法”について解説されたものがどれほどあるのか。しくみを知らずに懸念ばかりが強調されるのは、まことに残念である。また、AIについてのコンサーン(懸念)はAI特有のものではなく、IT全体のものでもあることにも気づいてもらいたい。金融市場をはじめ、われわれがコントローラビリティーを失いつつある事例は、AIに限らない。では、AIは、何が違うのか。AIは、学習していく。これまで人工物は設計者が意図して作ったものだったが、それが学習していくものに変化していくのだ。“学習工学”のようなものが、これからは必要になっていくだろう」

パネルディスカッション『AIネットワーク化がもたらすリスクへの対応』

 4つ目のパネルディスカッション『リスクへの対応』。高橋恒一氏(理化学研究所生命システム研究センターチームリーダー)に対しては、AI開発の透明性について意見が寄せられた。

高橋恒一氏(推進会議構成員、理化学研究所生命システム研究センターチームリーダー)

高橋氏 「単純な発想ならオープン性を確保すればよいことになる。ただオープン性には“開放性”と“透明性”という、2つの意味がある。開放性を追求すると、ソースコード、API、プロトコルがオープンになっていくことになるが、そこでは相互運用性や標準化、プラットフォームの形成が必要になる。これは経済活動としても追求に意味があるので、公的機関としては促進していくべきだろう。透明性については、微妙で難しい議論だ。例えばディープラーニングでも、なぜ機械がその判断をしたのかの解釈が難しく、また後から検証するには研究開発段階から実装していくコストがかかる。事前事後のシミュレーション、その方法の標準化などにもコストがかかる。ただ、検証可能なAI技術を構築していくことで長期的には新規の産業を生み出す可能性があるため、そこをサポートするのも公的機関の役割かもしれない」

 日本アイ・ビー・エム株式会社執行役員 最高技術責任者である久世和資氏は、「IBMではすでに数百のAIアプリケーションを稼働させている」と述べた後、次のように語った。

久世和資氏(推進会議開発原則分科会及び影響評価分科会構成員、日本アイ・ビー・エム株式会社執行役員 最高技術責任者)

久世氏 「構成要素としては、データが重要だ。運用では人が必ず介在している。リスク管理としては、運用方法の工夫(各国開発のAIを使うなど)が考えられる。透明性を保証するにはディープラーニングを使わずにあえてアルゴリズミックにやることもある。アプリケーションごと、リスクの大きさの違いで対応は変化する。昨年、ニュースで何度も取り上げられた人工知能Watsonのがん診断支援システムも、最終判断は医師であり、診断名や処方薬の決定は人間となっている。システムとしても論文の重み付けを人がやるなど、コンピューターにすべての判断を任せないことでリスクを避ける方法を取っている」

 AI活用におけるリスクについては、1日目のパネルディスカッションでも、Googleのグレッグ・コラード氏が「命に関わる医療システムに使うのか、メールのガイドサービスに使うのかではまったく話が違う。何についての話なのかを明確にしないと議論にはならない」と語っていた。

 ドワンゴ人工知能技術研究所長の山川宏氏は、ネットワーク化されたAIの制御可能性について、次のように述べた。

山川宏氏(推進会議構成員、株式会社ドワンゴ ドワンゴ人工知能技術研究所長)

山川氏 「ネットワーク化されたAIの制御技術については、現在いくつかの技術はあるものの決定的なものはない。対策を組み合わせていくことになるだろう。AIネットワークでは、ネットワーク化が進めば進むほど便利になるが、同時に破壊的な事象が起きる確率も高まるのは事実だ。私見レベルのアイデアとしては、ネットワークに“温度”のような設定を導入するとよいかもしれないと思っている。通常は、気体のようにパケットが飛び交う状況が、温度が下がると液体になり、固体になるような。問題発生時にはスローダウンして人間が介入しやすい状況を生むという機構もよいかもしれない」

 モデレーターの堀浩一氏(東京大学大学院工学系研究科教授)は「メタコントロールはかなりユニークなアイデア」と呼応した。

2日目を総括して

 2日目のプログラムに関してすこし残念に思えたのは、理化学研究所、NICT(情報通信研究機構)、産業技術総合研究所といった官系の研究所が長年行っているAIの基盤技術の研究、実用化されているAI技術についての発表が、各15分ずつで分断されていたことである。まとまった時間が確保され、そこで議論や質疑があれば、技術の理解と議論の深まりに効果があったかもしれない。

 最後に会場からは、「われわれAI研究をしてきた人間としては、フラストレーションを残して終わる感がある」との発言も出てきていた。「多分野の人と議論できたのは収穫であったが、テクノロジーの脅威を中心に議論が進むことには違和感がある。しかし、社会システムも変革できるのが現実だ。どう変えて、うまくデザインしていくのか、そのためにもこのような機会は必要だろう」という会場からの声が、今回のシンポジウムを先につなげていくようでもあった。

レポートの結びにあたって、AI研究開発の事例を紹介

 また、ここからは今回のシンポジウムには直接の関係がない蛇足とはなるが、先の松尾氏が触れていた“ニューラルネットワークの誤差逆伝播法”になぞらえて言及するのなら、そもそもの“AI”の概念は、特定の機能に限定した“特化型AI”、機能を特定せずに汎用的な利用を目的とした“汎用AI”と、大きく2つに分けられる。現在開発されているのは特化型AIであって、これがネットワーク化されていったときに、汎用AIのような働きをしていく可能性がある。しかし、そのような流れとはまた異なる方向性でAIの自律性を高め、真の汎用AIを実現させようという、先の先を見すえた研究開発もすでに行われている。

 そうした汎用AI研究開発のひとつとして、日本では、人間の脳に学んで汎用AI開発を目指している『全脳アーキテクチャ (WBA)』があり、今回のシンポジウムに参加した山川宏氏、松尾豊氏、高橋恒一氏らは、NPO法人『全脳アーキテクチャ・イニシアティブ(WBAI)』を組織している。WBAIは、多数の研究者やエンジニアをネットワークしながら、汎用AIの開発に取り組んでいこうと活動を活発化させている。

 蛇足の蛇足ながら、ここに世界の汎用AI開発組織をマッピングした図を掲げておこう。

世界の汎用人工知能開発組織のマッピング図(作成はドワンゴ人工知能研究所所長の山川宏氏によるもの)

 こうした先を見すえた技術における各国の開発状況が、また違った角度からの議論や質疑を呼ぶこともあるだろう。ちなみに、この図に入っていない、こうした情報の開示に極めて慎重な国、例えば中国やロシア、その他の国々のAI開発(特に汎用AIやロボティクス分野)の動きは、杳としてしれない。

 なお、本リポートでご紹介した、シンポジウム当日の模様は、下記リンクにて動画公開されている。

AIネットワーク社会推進フォーラム | NIKKEI CHANNEL
http://channel.nikkei.co.jp/businessn/17031314ai/

前へ 1 2 次へ

カテゴリートップへ

この連載の記事
ピックアップ