このページの本文へ

前へ 1 2 次へ

「教育と透明性の組み合わせがAIの信頼性を生む」と訴える

AI管理システムの国際規格をリードするBSIに聞く、AIの“善なる”普及に向けて必要なこと

2023年12月22日 08時00分更新

文● 福澤陽介/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 ChatGPTを契機にAIへの関心が高まり、社会や企業での有効活用が模索されている。AIは利便性をもたらす一方で、意図しない倫理的な問題が生じたり、判断を違えて安全性を損ねたりする可能性もあり、各国では法規制が進んでいる。

 そんな中、「『規制』は避けがたいが、杓子定規で、技術の進歩の速度に比べると対応が遅い。一方で『規格』は、AIが社会に浸透していく中で、ベストプラクティスを一貫して適用でき、素早くかつ長期的な対応ができる」と、規格策定の必要性を語るのは、BSI(英国規格協会)のDigital Trust Consulting部門でGlobal Managing Directorを務めるマーク・ブラウン氏だ。

 BSIは、前身となる組織の設立は1901年と世界で最も歴史のある標準化機関であり、最古の規格の策定にも携わっている。現在、日本も含む195か国以上、7万5000社以上の組織や企業のビジネス改善や標準化を支援している。2024年1月に公開予定のAI管理システムの国際規格「ISO/IEC 42001」についても、その開発をリードしているという。

 安全性を担保しつつ、AIの利便性を社会や企業が享受していくためにはどうしたらよいか。BSIが実施した調査結果をまじえてブラウン氏に聞いた。

BSI Digital Trust Consulting部門 Global Managing Director マーク・ブラウン(Mark Brown)氏

浮き彫りになったAIに対する信頼・認識におけるギャップ

 BSIは2023年10月に「AIに対する信頼度調査(Trust in AI)」を、日本を含む世界9か国1万人に対して実施。背景としてブラウン氏は、「AIに関してさまざまな報道がなされ、世界規模でAIに対する懸念が高まっている。規格策定に携わる機関として、AIに対する人々の意識や認識を確認する必要があった」と説明する。

 調査結果を見ると、グローバルの62%が「2030年までに日常の業務でAIが活用されることを期待している」という。一方で、グローバルの61%が「AIを安全に利用するための国際的なガイドラインの必要性」を感じており、57%が「消費者が騙されないようにAIからの保護が必要だ」と答えている。

 AIに対する認識はどうか。調査では、中国の70%、インドの64%が「日常的にAIを利用している」と回答している。一方で、ヨーロッパ各国における同回答は平均30%、日本は対象国で一番低い15%となった。各国におけるAI普及率の差もあるが、普段利用するサービスにAIが組み込まれていることを認識しているかどうかにも違いがありそうだ。

 実際、さまざまなサービスで「AIが利用されているとは知らない」と回答したのは、スマートフォンでは48%、音声アシスタントでは46%、おすすめプレイリストでは57%、チャットボットでは50%だという(それぞれグローバル)。

 ブラウン氏は、これらの結果を「世界的な規模で、AIに対する信頼と認識においてギャップが発生している」とまとめる一方で、「BSIではAIを『善なるもの』という前提で議論している」と語る。これは調査結果にも裏付けられており、例えばグローバルの52%が「AIにより将来、医療診断の精度が向上できる」と回答、ほかにも52%が「AIによりエネルギー効率の高い建築環境を構築できる」、そして49%が「AIが廃棄物の削減に貢献できる」と考えている。

 今後、AIからこれらの恩恵を受けるためには、信頼や認識のギャップを埋める必要があり、そのために社会や政府、もしくは企業に対して「教育と透明性」の必要性をブラウン氏はうたう。

 教育とは、従業員やユーザー企業、エンドユーザーといったステークホルダー全体に対して「AIというのはどういうものなのか」「AIではないものはどういうものなのか」を伝えていくこと。透明性とは、ステークホルダーのエコシステムに「AIをどのように利用しているかを提示すること」だという。

 これは個人情報の保護においてとられた道筋と同様であり、「教育と透明性の組み合わせこそが信頼性を生む」とブラウン氏は強調する。

前へ 1 2 次へ

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード