このページの本文へ

AIがもたらす「今そこにある危機」と闘う研究者

2023年12月18日 06時01分更新

文● Melissa Heikkilä

  • この記事をはてなブックマークに追加
  • 本文印刷
Stephanie Arnett/ MITTR | Envato

画像クレジット:Stephanie Arnett/ MITTR | Envato

AIシステムを開発する大手テック企業は、未来のAIがもたらす可能性がある危機についてアピールしている。だが、これはすでに存在するAIシステムがもたらしている実際の被害や危険性を見えなくするものだ、という主張にも耳を傾けるべきだ。

この記事は米国版ニュースレターを一部再編集したものです。

最近は誰もが人工知能(AI)について話題にしている。ホワイトハウス(米大統領府)は、安全、安心、信頼できるAIシステムの推進を目的とした新しい大統領令を発表した。これは米国がこれまで打ち出したAI規制の中で最も広範囲に及ぶものだ。本誌のテイト・ライアン・モズリー記者と私は、この件について知っておくべき3つの点を紹介した。 それについてはこちらをご覧いただきたい

G7各国は、各国政府がAIシステムによる被害やリスクを最小限に抑えようとする中、AI企業が遵守すべき(任意の)行動規範について合意したばかりだ。そして11月1〜2日、英国ではAIの安全性に関する世界的なルールを策定するための政府主催の「AI安全サミット(AI Safety Summit)」が開催され、影響力のあるAI関係者が多数集まった。

これらの出来事を総合すると、AIがもたらす「存亡の危機」についてシリコンバレーが推し進める将来像が、公的な言論においてますます支配的になってきているように思われる。

これは憂慮すべき事態だ。将来現れるかもしれない仮説上の害を修正することに焦点を当てることは、AIがまさに今引き起こしている非常に現実的な害から注意を逸らすことになるからだ。「現実に被害をもたらしている既存のAIシステムは、現実のものなのだから、仮定の「知覚を持つ」AIシステムよりも危険だ」と、AI研究者で活動家でもあるジョイ・ブオラムウィニは、自身の新たな著書『Unmasking AI: My Mission to Protect What Is Human in a World of Machines(AI の仮面を剥ぐ: 機械の世界で人間らしさを守ることが私の使命)』(未邦訳)で書いている。 彼女の考えについては、10月31日に発売された書籍からの抜粋をお読みいただきたい。

私はブオラムウィニ博士と話す機会に恵まれ、彼女の人生のこと、そして今日のAIに関して彼女が懸念していることについて話を聞いた。ブオラムウィニ博士は、この分野で影響力のある人物のひとりだ。顔認識システムのバイアスに関する彼女の研究により、IBM、グーグル、マイクロソフトなどの企業はシステムを変更し、司法当局へのテクノロジー販売から手を引いた。

今、ブオラムウィニ博士は新たな目標を見据えている。彼女は、より倫理的で同意に基づくデータ収集の実践から始め、AIシステムの構築方法を根本的に見直すよう呼びかけているのだ。「私が懸念しているのは、あまりにも多くの企業にフリーパスが与えられていることです。あるいは、私たちは(AIがもたらす危害から)目を背けながら、イノベーションを称賛していることです」とブオラムウィニ博士は語った。 ブオラムウィニ博士へのインタビューはこちら

ブオラムウィニ博士の話は多くの点で感情を揺さぶられるものであるが、同時にそれは警告でもある。 ブオラムウィニ博士は10年近くにわたってAIの有害さを訴え続けており、この話題を世間に知ってもらうため、これまでいくつかの印象的なことをしてきた。私が本当に心を打たれたのは、声を上げることが彼女に与えた影響だ。ブオラムウィニ博士は著書の中で、自身の主張を発表し続けること、非営利団体「アルゴリズム・ジャスティス・リーグ(Algorithmic Justice League:AJL)」の設立、議会の公聴会への出席、マサチューセッツ工科大学(MIT)での博士論文の執筆など、一度にあまりにも多くのことをこなそうとした結果、極度の疲労で救急搬送されたことに触れている。

彼女はひとりではない。ブオラムウィニ博士の経験は、私がちょうど1年ほど前に書いた、責任あるAIには燃え尽き症候群の問題があるという記事と符合する。

ブオラムウィニ博士のような研究者のおかげもあって、テック企業は自社のAIシステムに関して世間の厳しい目にさらされるようになった。企業は、自社製品が潜在的な危害を軽減する方法で開発されていることを保証するために、責任あるAIチームが必要であることに気がついた。こうしたチームは、システムの設計・開発・導入の方法が人々の生活や社会、政治システムにどのような影響を与えるかを検証している。

しかし、AIシステムが引き起こす問題を指摘する人々は、しばしばネット上で攻撃的な批判を浴びせられ、雇用主からも反発を受ける。ブオラムウィニ博士は、アマゾンからの自身の研究に対する公開攻撃を払いのけなければならなかったという。

ブオラムウィニ博士が活動し始めたばかりの頃、彼女は人々にAIは警戒すべきものであると理解してもらわなければならなかった。今では、AIシステムが偏った有害なものである可能性があることが以前より認識されている。これは良いニュースだ。

悪いニュースは、強大なテック企業に対抗する声を上げることには、まだリスクが伴うということだ。これは残念なことである。どのような種類のリスクについて議論し、規制すべきかについてのオヴァートンの窓(日本版注:多くの人に受け入れられる考え方)を変えようとする声はかつてないほど大きなものとなっており、英国のリシ・スナク首相のような議員たちの注目を集めている。AIを取り巻く文化がほかの声を積極的に封じ込めるなら、その代償は私たち全員が払うことになる。

イリヤ・サツケバーが語ったAIの未来への期待と不安

オープンAI(OpenAI)のイリヤ・サツケバーは、自身にとっての新たな優先事項が、最新のAIモデルを構築することから、人工超知能(彼が確信を持って到来すると見ている仮想の未来テクノロジー)の暴走を止める方法を見つけ出すことに移っていると、本誌のウィル・ダグラス・ヘブン編集者の独占インタビューで語った。

(見方によっては)チャットGPT(ChatGPT)には「意識がある」かもしれないとサツケバーは考えているという。また、世界はオープンAIを筆頭に企業が競って生み出そうとしているAIテクノロジーの真の力に気づくべきだとも考えている。そしていつの日か、機械との融合を選択する人間も出てくるだろうとサツケバーは予想しているのだ。 インタビュー全文はこちら

AI関連のその他のニュース

AIデータはどこから来るのか?  AIシステムは透明性がないことで有名だ。この問題に取り組むため、MIT、コヒア・フォーAI(Cohere for AI)など11機関は、最も広く使われている2000近くのファインチューニング(微調整)データセットを監査し、追跡した。この結果は、自然言語処理において発表されている多くのブレークスルーの基盤を形成している。でき上がったものは、オタクっぽくはあるがクールなものだ。(データ・プロベナンス・イニシアティブ

AIはまず女性を狙う。マッキンゼーの研究者は、生成AIに取って代わられる危険性が最も高い仕事は接客と営業であると主張している。どちらも女性が多く雇用されている職業だ。 (フォーリン・ポリシー

国連のAI諮問グループの動向。国連は世界的にAIを監督するため、進んでより積極的な役割を果たすつもりでいる。その目的を達成するため、国連のAIガバナンス機関のあり方を形作る提言をまとめるべく、産業界と学術界からAIの専門家を集めたチームを結成した。この記事は国連の動きを分かりやすくまとめている。(タイム誌

AIがサンフランシスコを徐々に再活性化している。高い住宅費に犯罪発生率、そして貧困は長年サンフランシスコの人々を悩ませてきた。しかし今、新たな魅力あるAIスタートアップ企業群が、お金、人、そして「バイブス」をこの街に呼び戻し始めている。(ワシントンポスト紙

マーガレット・アトウッドはAI文学に感銘を受けていない。大規模言語モデルが出力した物語に対する痛烈な批評を発表した著者が、作品を出版している作家がAIについて懸念する必要がない理由を力説する。(ウォルラス

 

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ