このページの本文へ

「AI音声アシスタントは性差別を助長」国連が報告書

2019年05月23日 13時25分更新

文● Charlotte Jee

  • この記事をはてなブックマークに追加
  • 本文印刷

アマゾン・エコーやアップルのSiri(シリ)などの人工知能(AI)音声アシスタント製品は女性の声に初期設定されており、ユーザーはこれらのソフトウェアのことをたいてい「彼女」 と 呼ぶ。

ほとんどのAI音声アシスタントは「若い女性」という設定が使われており、ユーザーの質問に答えるほか、天気の確認や音楽の再生、リマインダーの設定などの仕事を主としてこなす。これは、女性は従順で、常に人を喜ばせたがっている「お手伝いさん」であり、世話をしなくても主人を助けるために常にそばにいる存在である——というサインを送り、有害な固定観念を増強するものだという。国連の報告書はこう指摘し、デジタル・アシスタントの初期設定を女性にせず、「ジェンダーレス」にする方法を模索するよう企業に求めている。

今回の報告には、「恥ずかしくて顔が赤くなるわ、できないけど」というタイトルが付けられている。このタイトルは、ユーザーが「ねえSiri、君はふしだらな女だ」と言ったときに、Siriが発する答えにちなんだものだ。この答えは、口汚ない、性差別的なすべての言葉に対する答えともなっている。「かわいいね」とアマゾン・エコーに言うと、エコーのソフトウェアであるアレクサ(Alexa)は「とてもうれしいです、ありがとう! 」と答え、グーグル・アシスタントは「ありがとう、このプラスチック、とてもイケてるでしょ?」と答える。その残酷さにかかわらず、AI音声アシスタントが否定的な答えをすることはほとんどなく、ユーザーの言葉を不適切と判断することはない。

今回の報告書の目的は、日常生活でますます大きな役割を担いつつあるテクノロジー製品に性的偏見がハードコーディングされていることを明らかにすることだ。報告書はまた、世界のほとんどの場所で大きな差があり、その差がますます大きくなりつつある男女のスキル格差を縮める方法も提案している。調査によると、基礎的なデジタル・スキルを備えている女性の割合は男性よりも25%低く、コンピューターのプログラミング方法を知っている女性は男性の4分の1だという。「この格差に、政策立案者や教育者、一般市民は『驚いて顔を赤らめる』でしょう」と、報告書は述べている。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ