このページの本文へ

顔認識システムに人種バイアス、非白人で誤認識率に差

2019年12月24日 07時53分更新

文● Karen Hao

  • この記事をはてなブックマークに追加
  • 本文印刷
David J. Phillip/AP

ほとんどの顔認識アルゴリズムは、白人以外の場合に正確度が大きく低下する——。画期的な研究によって明らかになった。

米国国立標準技術研究所(NIST:US National Institute of Standards and Technology)は、およそ200の顔認識アルゴリズムを対象に、もっとも一般的な2つのテストを実施した。1つは「1対1」照合と呼ばれるもので、ある人物の写真をデータベース内にある同一人物の別の写真と照合する。たとえば、スマートフォンのロック解除やパスポートの確認に使われるものだ。もう1つは「1対多」検索で、ある人物の写真がデータベース内で一致するかどうかを判断する。警察機関が捜査で容疑者を識別する際によく使われるものだ。

NISTは政府の各種申請などで現在使われている4つの顔写真データセットでアルゴリズムの評価を実施した。米国内に居住する犯罪容疑者の顔写真、移民給付申請写真、ビザ申請写真、国境を越えて米国へ入国した人々の写真の4つで、合計すると849万人分、1827万枚にもなる。

NISTは特に目立った研究結果を発表している。要点は以下のとおり。

1.  1対1照合では、ほとんどの顔認識システムはアジア人やアフリカ系米国人に対して、白人よりも10倍または100倍も高い率で誤認した。つまり、一致しない場合でも、一致したと判定する可能性が高かった。

2.  上記の傾向は、アジア諸国で開発された顔認識アルゴリズムでは変化が見られた。それらのアルゴリズムはアジア人と白人における誤認率は、わずかな違いしか見られなかった。

3.  米国で開発されたアルゴリズムは、アジア人やアフリカ系米国人、北米先住民に対する照合において常に悪い結果を示した。その中でも、北米先住民に対する誤認率が最も高かった。

4.  1対多照合において、女性アフリカ系米国人に対する誤認率が最も高かった。つまり、女性アフリカ系米国人が、誤って犯罪者として告発されるリスクが最も高いということだ。

顔認識システムは現在、司法当局や国境警備、他の社会全体に及ぶ分野において急速に成長している。複数の学術研究により、一般に普及している商用顔認識システムに人種や性別にバイアスがあることが示されている。もっとも包括的な評価である今回のNISTの研究は、こうした先行研究の結果を改めて確認する形となった。

今や顔認識テクノロジーを規制する最善の方法を見付ける役割は、政治家に委ねられている。NISTは顔認識技術の開発者に対し、バイアスを軽減するためのさらなる研究を促している。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ