このページの本文へ

「AIは今、転換期にある」フェイ・フェイ・リーが語る課題

2023年11月20日 07時00分更新

文● Melissa Heikkilä

  • この記事をはてなブックマークに追加
  • 本文印刷
Courtesy Photo

画像クレジット:Courtesy Photo

スタンフォード大学「人間中心のAI研究所」の共同所長を務めるフェイ・フェイ・リーが、AIがもたらす人類滅亡のリスクやAI界における権力の集中など、この分野の困難な問題について自身の考えを語った。

この記事は米国版ニュースレターを一部再編集したものです。

「現在、人工知能(AI)は転換期を迎えています」。フェイ・フェイ・リーは最近、こう話してくれた。リーはスタンフォード大学人間中心のAI研究所(Human-Centered AI Institute)の共同所長で、著名なコンピューターサイエンス研究者の1人である。リー 所長は、研究者が最新のAIシステムを訓練する上で極めて重要となる、人気の画像データセット「イメージネット(ImageNet)」を作成したことでよく知られている。

リー所長は、2つのことが起こっていると説明した。生成AI(ジェネレーティブAI)のおかげで人々がAIテクノロジーに目覚めるようになったのは、チャットGPT(ChatGPT)をはじめとする自分で試すことができる具体的なツールが用意されているからだという。そしてその結果、企業はテキスト生成などのAIテクノロジーが収益を生む可能性があることに気づき、現実世界のより多くの製品に展開し始めた。「AIテクノロジーが私たちの世界により深い影響を与えているのはそのためです」とリー所長は話す。

リー所長は、MITテクノロジーレビューの最新号でインタビューしたテクノロジー分野のリーダーの1人で、現在世界が直面している最大の疑問と、最も困難な問題に取り組んでいる。 私たちは、テクノロジーと社会の接点にある十分に手が付けられていない問題について、各分野の著名人に意見を求めた。

11月に出版されたリー所長の回想録『The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI(私が見ている世界:AI の夜明けにおける好奇心、探検、発見)』(未邦訳)の中で彼女は、貧困の中で暮らす移民から、どのようにして現在のAI分野のトップ研究者になったのかを詳しく語っている。この回想録は、移民が夢を実現するために払わなければならない代償についての感動的な考察であり、AIの研究がどのようにして注目を集めたかについての内部からの視点による記録でもある。

私たちがインタビューをしたとき、リー所長はAIの将来とこの分野に待ち受けている困難な問題に、しっかりと目を向けていると語った。

リー所長とのインタビューのハイライトをいくつか紹介しよう。

AIの壊滅的なリスクについて、一部のAI界の「ゴッドファーザー」らの意見にリー所長が同意しない理由
ジェフリー・ヒントン、ヤン・ルカン、ヨシュア・ベンジオなどの他のAI界の重鎮たちは、AIシステムのリスクや技術を安全に管理する方法について、公の場で議論を戦わせている。特にヒントンは、AIが人類の存続リスクをもたらす可能性があるという懸念を声高に表明している。リー所長はこのことについてあまり確信を持っていない。「この意見は本当に尊重したいと考えています。知的に、これらすべてについて話し合うべきだと思います。しかし、AIリーダーとしての私に言わせれば、社会にとって壊滅的なリスクと呼ぶべき、もっと差し迫った緊急のリスクが他にあるように感じています」と語り、偽情報や労働力の混乱、バイアス、プライバシー侵害など、現実的な「正念場」の問題を強調している。

困難な問題
リー所長が懸念しているもう1つの主要なAIのリスクは、公共部門における科学技術研究への投資を犠牲にして、テクノロジー業界の権力と支配がますます集中していることだ。「AIは非常に高価で、1つの大きなモデルに数億ドルかかるため、学術界だけで費用を負担することは不可能です。このようなことで、科学が公共の利益に向かうでしょうか?顧客を超えた多様な声に向かうでしょうか?米国には、AIにおける、困難だが達成できれば大きなインパクトをもたらす瞬間が必要です。国家AI研究リソースやCERN(欧州原子核研究機構)と同様の研究所を含む公共部門の研究およびコンピューティング能力に、多額の投資をする必要があります。私は、AIが人々の状態を改善すると強く信じていますが、AIにおける米国のリーダーシップを確保するには、協調した取り組みが必要です」。

イメージネットの欠陥
リー所長が作成したイメージネット(ImageNet)はバイアスがあり、安全でない写真や有害な写真が含まれているという批判があり、AIシステムにおけるバイアスや有害な結果につながっている。リー所長は、イメージネットのデータベースが完璧ではないことを認め、「イメージネットの不完全性を指摘し、公平性の問題を指摘するには多くの人の力が必要です。だからこそ、多様な声が必要なのです。テクノロジーをより良くするには、集団が必要です」 と語る。

著作権とデータ
インターネットからデータを収集してデータセットを作成する現在の慣行は、とりわけバイアスや著作権、プライバシーの侵害につながるとの批判がある。リー所長は、AIコミュニティはこの批判を検討する必要があると述べる。「データの果たす役割に対する私たちの 集団理解は、最初にデータの重要性を訴えた2009年に比べれば、はるかに洗練されています」と語り、AIコミュニティは過去の失敗から学び、発展し続ける必要があると付け加えた。

AI分野で働きたい人へのアドバイス
「出身地や背景に関係なく、この分野に情熱を持っていれば、きっとAIの分野で居場所を見つけることができます」とリー所長は話す。彼女によると、多様な背景を持つ人たちは、メディアによってAIの分野が白人と男性の世界であるように描かれていることを無視するように努めるべきだという。

若い技術者へのメッセージ
 「数学はきっぱりとした美しいものですが、テクノロジーの社会的影響はもっとごちゃごちゃしています。私たちが作成しているものには、プラスとマイナスの両方の影響があります。その乱雑さを認識するようにしてください」。

聴きたい音を選べるノイズキャンセリング技術

この未来のテクノロジーで、赤ちゃんの泣き声、鳥のさえずり、アラーム音など、ユーザーが聞きたい特定の音を選択できるようになるかもしれない。「セマンティック聴覚」と呼ばれる技術により、ヘッドフォンのユーザーは一部の音をフィルタリングし、他の音を強調できるようになる。

システムはまだ試作段階だが、市販のノイズキャンセリング・ヘッドフォンをスマートフォン・アプリに接続することで機能する。ノイズを打ち消すために使用されるヘッドフォン内蔵マイクは、装着者の周囲環境の音を検出する目的でも使われる。

研究者らは長い間、「カクテルパーティ問題」を解決しようとしてきた。つまり、人間にできるように、コンピューターに、ざわついた部屋で1つの声に焦点を当てさせるということだ。今回の新しい方法は重要な進歩であり、このテクノロジーの可能性を示していると言える。たとえば、よりスマートな補聴器やイヤホンへの道が開かれる可能性がある。 詳しくは、こちらの記事をどうぞ

AI関連のその他のニュース

アマゾンとマスクがAI言語モデルの流行に加わる。チャットGPT(ChatGPT)は世界を驚かせ、1年ほど前に巨大テック企業のAI軍拡競争を引き起こす原因となった。そして今も、新しい企業が、自分たちを際立たせられるであろうと期待するモデルを持ち込んでこの競争に参加し続けている。アマゾンは、独自のチャットGPTであるAIモデル、コードネーム「オリンパス(Olympus)」 を開発中であると伝えられている。オリンパスは、これまでに訓練された最大のモデルの1つとなるだろう。一方、イーロン・マスクの新しいAIベンチャーであるエックスAI(xAI)は、「ゴロク(Grok)」と呼ばれるAIモデルのパイロット版をデビューさせた。X(旧ツイッター)のデータで訓練されたこのモデルは、「ちょっとしたウィット」と「反抗的な性格」をもって質問に答えるように設計されている。

生成AIによりグーグル検索がおかしくなった。AIが生成したテキストが、インターネットを汚染している。言語モデルによって生成された無意味な情報がオンラインの検索結果に取り込まれ、明確でアクセス可能な事実に対するグーグル検索の信頼性が、これまでで最も低くなった。(アトランティック

このAIピンはスマートフォンを駆逐してしまうのだろうか?  シリコンバレーでは、スタートアップ企業のヒューメイン(Humane)が製作したAIラペルピンが話題になっている。699ドルのこのデバイスは、マグネットで服に付けることができ、カメラとセンサーを使って周囲を記録する。ユーザーが声を使ってデバイスを制御し、ラペルピンがユーザーの手のひらに情報を投影するというコンセプトのようだ。このシステムは、AIモデルを使用して質問に答え、情報を要約してくれる。音声制御要素が個人的に最も気になるポイントだ。私は静けさの中で、ネガティブなニュースを検索するのが好きなのだ。(ニューヨーク・タイムズ

 

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ