このページの本文へ

富士通、AI倫理モデルの作成・影響評価方法を公開

2022年02月22日 06時51分更新

文● MIT Technology Review Japan

  • この記事をはてなブックマークに追加
  • 本文印刷

富士通は、国際機関や政府、企業などが発表している人工知能(AI)倫理ガイドラインに基づき、AIシステムの倫理上の影響を評価する方式を開発した。本方式に基づく評価手順書と適用例を2022年2月21日から無償公開している。

富士通は、国際機関や政府、企業などが発表している人工知能(AI)倫理ガイドラインに基づき、AIシステムの倫理上の影響を評価する方式を開発した。本方式に基づく評価手順書と適用例を2022年2月21日から無償公開している。 ヘルスケア、金融、ものづくり分野をはじめAI適用の裾野が広がる一方で、AIの下す判断にさまざまな「バイアス(偏り)」が存在することが問題視されている。こうした問題に対応するため、欧州委員会や米国防総省、OECD(経済協力開発機構)などはAI倫理ガイドラインを策定している。だが、こうしたガイドラインどおりにAIシステムが実装されているかどうかを判定しにくいという問題があった。 富士通が開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順で構成されている。同社は、国際的AIコンソーシアムであるパートナーシップ・オンAI(Partnership on AI)が公開しているAIインシデント・データベースを調べて、倫理上の課題が、AIシステム内部のコンポーネントの間や、関係者との間における情報のやりとりを指す「インタラクション」に対応づけられることに着目。AI倫理モデルを作成して、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発した。

(中條)

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ