このページの本文へ

フェイスブック、AIの差別問題を調査する社内チーム設置へ

2020年07月27日 17時48分更新

文● Will Douglas Heaven

  • この記事をはてなブックマークに追加
  • 本文印刷
NeONBRAND / Unsplash

画像クレジット:NeONBRAND / Unsplash

人工知能(AI)アルゴリズムの偏見(バイアス)批判を受けて、フェイスブックが社内チームを発足した。アルゴリズムの是正につながるか。

フェイスブックが自社のソーシャル・ネットワークおよびインスタグラムのアルゴリズムに、人種差別を調査する新しい社内チームを設置すると発表した。ウォール・ストリート・ジャーナルが報じた。特に今回の調査は、訓練データに符号化されて埋め込まれた人種差別によって、機械学習が黒人やヒスパニック系および他のマイノリティ集団に与える悪影響に対処するという。

この数年、多くの研究者や活動家が、人工知能(AI)における偏見と、マイノリティに対する不均衡な影響に関する問題を浮き彫りにしてきた。機械学習を使って25億人のユーザーの日常体験をキュレーションするフェイスブックは、長らくこのような内部評価を実施すべき状態にあった。例えば、フェイスブックの広告配信アルゴリズムが人種差別を行ない、広告主が特定の人種グループに広告を表示させないことを許可していた証拠はすでに存在する。

フェイスブックはこれまで、同社のシステムが抱えるバイアス(偏見)に対する批判を回避してきたが、数年にわたる批判的報道と人権活動団体の圧力によって今回の対応に至った。フェイスブックは、名誉毀損防止同盟(Anti-Defamation League)やカラー・オブ・チェンジ(Color of Change)、全米黒人地位向上協会(NAACP)を含む複数の人権活動団体が組織した広告ボイコットを、1カ月にわたって受けてきた。コカ・コーラやディズニー、マクドナルド、スターバックスのような広告に多額を投じる企業が広告キャンペーンを停止したことで、今回の新しい調査チームの発足に至っている。

歓迎すべき動きだ。だが、調査を開始することと、実際に人種差別の問題を解決することには大きな隔たりがある。解決策が分かっていない現状を考慮すればなおさらだ。ほとんどの場合、偏見は訓練データの中に存在し、それを取り除く優れた方法は存在しない。また、アルゴリズムの差別是正措置の1つとしてそのようなデータを調整することには、賛否両論ある。機械学習の偏見は、人種をめぐるソーシャル・メディアの問題の1つにすぎない。機械学習のアルゴリズムを調査するのであれば、フェイスブックは人種差別的な政治家や白人至上主義団体、ホロコースト(ユダヤ人大虐殺)否定論者に発信の場を与える方針の再検討にも取り組み、より幅広い見直しをかけるべきだ。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ