このページの本文へ

「de:code 2018」基調講演レポート(前編)

AI開発企業の使命、日本MSが“AIの倫理”に関する本『Future Computed』日本語版を無償提供

2018年05月25日 13時00分更新

文● 羽野三千世/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 日本マイクロソフトは2018年5月22日~23日の2日間、都内で開発者向け年次イベント「de:code 2018」を開催した。22日の基調講演の内容を、前編:日本マイクロソフト 執行役員 常務 デジタルトランスフォーメーション事業本部長の伊藤かつら氏と同社 代表取締役 社長 平野拓也氏による日本市場向けのアナウンス、後編:米マイクロソフトから来日したAzureマーケティング副社長のJulia White氏、デベロッパー部門副社長のJulia Liuson氏、Mixed Reality事業ゼネラルマネージャーのLorraine Bardeen氏らが語ったMicrosoft Azure、Visual Studioツール、Microsoft HoloLensの最新機能---の前後編でレポートする。

iOS/AndroidとWindows PCをスムーズに連携

 2018年のde:codeのテーマは「LOVE to CODE」。基調講演のオープニングに登場した日本マイクロソフトの伊藤かつら氏は、「開発者の皆さんがコードを書いてアプリを動かすことで、組織の持つ潜在的な能力を解き放つことができる」と呼びかけた。

日本マイクロソフトの伊藤かつら氏

 マイクロソフトは2017年5月開催の「Build 2017」で「インテリジェントクラウド、インテリジェントエッジ」(クラウドAIのテクノロジーをエッジデバイス側にも実装していく)ビジョンを打ち出し、以降、あらゆるイベントで同ビジョンをコアに据えてきた。一方で、同ビジョンを実現するためのテクノロジー要素に挙げる内容は、イベントによって多少変化している。2018年5月の「Build 2018」では、サティア・ナディラCEOは同ビジョンのテクノロジー要素として、「ユビキタスコンピューティング」、「AI」、「マルチセンス、マルチデバイスエクスペリエンス」の3つを挙げた。

「ユビキタスコンピューティング」、「AI」、「マルチセンス、マルチデバイスエクスペリエンス」

 伊藤かつら氏は、この3要素についてそれぞれ言及。1つ目、ユビキタス(いつでもどこでも存在すること)とは、アプリケーションがどこでも動く世界であり、サーバーレス、分散アプリケーションといった技術が実現する。このようなモダンなアプリケーションはAzureで開発できると説明した。

 2つ目、AIについては、AI開発企業のマイクロソフトが「AIの倫理、AIが将来の雇用に与える影響を考えなければいけない」(伊藤氏)立場だとし、米マイクロソフト 最高法務責任者のBrad Smith氏と、同社のAI研究組織Microsoft AI and Research Group代表のHarry Shum氏が監修した書籍『Future Computed:人工知能とその社会における役割』の日本語版を、同日から無償ダウンロード提供することを発表した。

 3つ目、「マルチセンス、マルチデバイスエクスペリエンス」に関する最新トピックとして伊藤氏は、5月に配信されたWindows 10のアップデート「Spring Creators Update」の新機能「Timeline」と、次期Windows 10大型アップデートに実装される予定の「Your Phone」機能を紹介した。いずれも、Windows PCとAndroid/iOS端末をスムーズに連携する機能だ。

 Timelineは、Windows PCで開いたEdgeやOfficeファイルを、Microsoft Graphのバックエンドプロセスによって一定期間記憶しておく機能。Timelineは、AndroidではMicrosoft Launcher経由で、iOSではEdge経由でスマートフォンと共有できる。Your Phoneは、スマートフォンへの通知やスマートフォン上の画像などをWindows PC上で見られるようにするUWPアプリだ。「スマホに届いたメッセージにPCから返信したり、反対にWindowsデスクトップのファイルをスマホのチャットアプリ上に投稿したりできる」(伊藤氏)。

Windows PCとスマホをスムーズに連携する「Timeline」と「Your Phone」

 基調講演では、この「ユビキタスコンピューティング」、「AI」、「マルチセンス、マルチデバイスエクスペリエンス」の3軸で、Azure、Visual Studioツール、HoloLensの新機能とデモが披露された。こちらは後編で紹介する。

AIで障害者を支援する開発コミュニティ「Accessibility Developer Community」を発足

 Build 2018でマイクロソフトは、AIを活用して障害を持つ人々を支援する取り組みに今後5年間で2500万ドル(約27憶円)を投じる「AI for Accessibility」プロジェクトを発表した。de:code 2018基調講演で、日本マイクロソフトの平野社長は、AI for Accessibilityプロジェクトの日本展開を発表。一般社団法人 日本支援技術協会と連携して、障害者支援のためのAIを開発するコミュニティ「Accessibility Developer Community」を同日付で発足した。

日本マイクロソフト 代表取締役 社長 平野拓也

 障害者支援でのAI活用の一例として、マイクロソフトはCognitive Servicesの画像認識AIやOCRを使ったiOSアプリ「Seeing AI」を提供している。Seeing AIは、スマートフォンのカメラで読み取った文字を音声で読み上げたり、カメラで撮影した画像をAIで解釈(例:27歳の女性がほほえんでいる)して音声で説明したりといったことが可能だ。5月に、日本のAppStoreでも配信が開始された。まだ認識できる文字、説明音声は英語のみだが、今後日本の開発コニュニティによって日本語対応が進むだろう。

「Seeing AI」アプリで文字を認識して音声に変換カメラで撮影した人物について年齢や感情、何をしているかをAIで認識し音声で解説

 後編に続く。

■関連サイト

カテゴリートップへ

ASCII.jp特設サイト

クラウド連載/すっきりわかった仮想化技術

ピックアップ