米マイクロソフトのAI開発指針「Trusted AI」とは?
「AIは世界を反映し、差別を助長」 業界での対策を訴える米MS法務担当副社長
2017年03月21日 12時00分更新
日本マイクロソフトは3月16日、米マイクロソフトでAI(人工知能)分野の規制に責任を持つ法務担当バイスプレジデント デイヴィッド・ハイナー氏の来日に伴う記者説明会を開催。同社が考えるAI開発指針「Trusted AI(信頼できるAI)」について説明した。
AIは人の能力を拡張する存在でなければいけない
ハイナー氏は、総務省が3月13~14日に都内で開催した国際シンポジウム「AIネットワーク社会推進フォーラム」に登壇するために来日した。同シンポジウムでは、OECD(掲載協力開発機構)、欧州議会の代表者のほか、AI開発企業としてマイクロソフト、グーグルが参加している。
ハイナー氏は、1994年からマイクロソフトの法務部門に在籍し、弁護士として独占禁止法対応の責任者を務めてきた。現在は、AI、オンラインプライバシー、アクセシビリティ分野の規制関連を担当している。
まず、AIが人類にもたらす価値についてハイナー氏は、「機械は体験(データ)から学ぶことができる。過去に起こった“過ち”から学び、同様の過ちが起こる可能性をパターンから予測し、防ぐことができる」と説明した。たとえば、小さなミスが人の死を招く薬の処方において、AIがミスを検知してアラートを出すことで死亡件数を減らすことができる。
そしてAIは「大工にとってのトンカチ、配管工にとってのレンチのように、人間の能力を拡張する存在でなければいけない」とハイナー氏。たとえば、AIによる画像認識能力はすでに人間の能力を超えている。その能力をX線の画像診断に活用すれば、人間よりも高い精度でガンなどの病気を発見できるようになり、救われる命が増える。
マイクロソフトは、人の能力を拡張するAIを、すべての一般ユーザーに対して「エージェント」の形で、開発者コミュニティ全体に向けて「AI機能を展開するためのプラットフォーム」や「画像認識APIや自然言語認識API」の形で提供していくとハイナー氏は説明した。
特に、Cortanaのようなデジタルパーソナルエージェントについて、「コンピュータはモノを忘れない。自分のカレンダーやメールへアクセスを許可すれば予定を教えてくれるし、外部の交通渋滞のような情報も加味して、朝出発すべき時間を教えてくれる」(ハイナー氏)。また、AIを使ったエージェントの未来について、「エージェント同士が会話して、個人の嗜好や状況(禁煙、宿泊人数)を判断してホテルの予約をするといったことが可能になる」(ハイナー氏)と展望した。
AIは全世界を対象にトレーニングすべき
AIが、人間の生活を便利にし、仕事の生産性を高める存在であることに疑う余地はない。しかし、子供から大人まで、世界中のさまざまな価値観をもつ人々がエージェントや検索エンジンを通じてAIのテクノロジーに触れるようになった今、AIの開発においては倫理観や道徳観の枠組みが必要である。
「AIが予測や判断をするのであれば、そのシステムは信頼できる存在でなければいけない」とハイナー氏は述べ、AIの信頼性と安全性に関して開発企業が検討すべきいくつかの論点を提示した。
まず、「AIが世界全体を表現できていない」ケース。AIのシステムに学習させたモデルが世界を反映していない場合だ。「たとえば初期の顔認識システムは、白人の顔認識のほうがアジア人の顔よりも得意だった。これは、システムが白人のデータでトレーニングしたためだ」(ハイナー氏)。信頼できるAIの開発においては、トレーニングに全世界を対象にすることが大事だとハイナー氏は強調した。
全世界を対象にシステムをトレーニングすることは、AIの安全性を高めるためにも重要だ。2016年に、米テスラモーターズの車が自動運転中に死亡事故を起こした。事故調査によれば、自動運転システムは対向車の白いトラックを「霧」と判断したとされている。世界におこる自然現象についてのトレーニングデータが不足していたための事故といえる。
AIは世界を反映する、世界には差別がある
逆の論点もある。マイクロソフトやグーグルが開発するAIは、ある程度の権威があるものと認識されている。AIが世界をそのまま反映した結果、人種差別や偏見などの社会問題を助長させ、現状を悪化させてしまう可能がある。「Googleで、“3人の黒人のティーンエイジャー”と画像検索すると警察で撮影された容疑者の写真が上位表示される。一方、“3人の白人のティーンエイジャー”で検索した結果、幸せそうにバスケットボールをしている写真が表示される。もちろんGoogleがこのように結果表示されるように学習させたわけではない。社会に差別があるとAIに反映されるのだ」(ハイナー氏)。
人種差別はシステム上で明らかに対処すべき問題だが、AI開発企業が、世界をどこまでどのように修正していくかは慎重な議論が必要だ。「“CEO”と画像検索すると男性の写真ばかり表示される。Fortune 500のCEOの90%は男性なので当然の結果だ。ここで、少女がこの結果を目にしたとき、“CEOとは男性の仕事なのだ”という間違った認識をしてしまわないだろうか。一方で、10%の女性のCEOの写真を意図的に表示結果に含めるべきなんか」(ハイナー氏)。
マイクロソフトのAI開発では、まず、システムが全世界を対象に「公平性」をもってトレーニングできるよう、多様な人で構成されるチームでAIを開発している。その上で、AIが何らかの偏見を反映しているときに、その判断に至るまでの機械学習についての「透明性」を担保すること、判断結果についての「説明責任」を果たすことを重要な柱としている。
AIは世界から学習して社会を反映する。自社開発のAIシステムが偏見を含む可能性を常に考慮し、自社で検知できなければいけないとハイナー氏。そして、偏見があった場合にどう対処するか、その「倫理観」についての議論は、マイクロソフト1社ではなく業界全体として考えていくべきことだとした。今回の総務省の国際シンポジウムでも、「システムに偏見があった場合にどうするか」というガイドライン策定が話し合われている。