非営利団体アップターン(Upturn)の最新の報告書によると、主要な人材採用アルゴリズムを分析した結果、採用アルゴリズムが初期設定ではバイアスを持つ傾向があると分かった。
採用アルゴリズムは、採用手順における「求人」「審査」「面接」「選抜」という、主な4つのステップを自動化するために作られている。アップターンの分析によると、誰を採用するかという最終決定に予測ツールが使われることは滅多にないものの、各ステップで不適格な人材を振るい落とすためによく利用されていることが分かった。
バイアスはいつ入り込むのだろうか? 過去の雇用データが使われる場合、訓練データにバイアスがかかっていたり、特殊な例が含まれていたりする可能性があるにも関わらず、それがソフトウェアに反映されてしまう。性差別や人種差別的なデータをただ消去するだけでは、ソフトウェアからバイアスを取り除くことはできない。職場からの距離といった他の情報が、より繊細な要因と強い相関関係を持つことがあるからだ。アマゾンは開発を進めていた人材採用アルゴリズムでこの問題を見つけた。採用担当者がアルゴリズムからの推薦を過度に信用してしまう傾向も見逃せない。
アップターンの調査ではまた、既存の法律ではこの問題に対処できないことが判明した。人材採用に関する決定を規制する法律は、機械による差別を調査したり関与したりすることができないのだ。
いい面もある。一方で予測ツールは、以前は見過ごされていたバイアスや思い込みを、発見する手助けとなり得るからだ。予測ツールによって企業は、人材採用をより良い形に変えることができる。報告書の著者の1人であるアップターンのミランダ・ボーゲン上級政策アナリストは、「自社製品にバイアスがないか監査するだけでなく、公平性を促進する機能を備えようとしている開発企業もあります」と述べる。「私たちはより多くの開発企業がこうした対処をするよう望んでいます。とはいえ、予測ツールがメリットよりもデメリットをもたらすことはないと自信を持って言えるようになるまでには、まだ長い時間が必要でしょう」。
人材採用により公平にAIを活用するため、アップターンの報告書は次の3つを推奨している。
- 雇用者とソフトウェアに対し独立した監査を実施する
- 人材採用ソフトウェアを想定した法整備を進める
- 広告や求人サイトを細かく調べ、人材採用に与える影響を分析する
ボーゲン上級政策アナリストは、「偏見が生じ得る過程には、非常に多くのさまざまな要因があります」と述べる。「どんな予測ツールを利用しているのかについて透明性を保ち、発生したバイアスを積極的に検出するために、あらゆる手段を講じるべきです。自信を持ってそれができないなら、ツールを利用するべきではありません」。