画像クレジット:Stephanie Arnett/MITTR | AdobeStock
ジェフリー・ヒントンやヨシュア・ベンジオといった、現在のAIの隆盛に大きく貢献した人たちが、AIが人類を絶滅させるかもしれないと訴え始めている。パリにあるメタのオフィスを訪れ、もう1人のゴッドファーザーであるヤン・ルカンに話を聞いた。
この記事は米国版ニュースレターを一部再編集したものです。
人工知能(AI)は本当に奇妙な時期を迎えている。わずか6カ月の間に、AIをめぐる世論は、「チャットボットがおもしろいシー・シャンティ(船乗りたちの労働歌)を生成する」という他愛もないものから、「AIシステムが人類を絶滅させるかもしれない」という深刻この上ないものへと変化した。急速な論調の変化についていけないと感じている人は、私だけではないだろう。
本誌のウィル・ダグラス・ヘブン編集者は、人々の間で実存的リスクが話題になっている理由と、それが今である理由を、AIの専門家たちに尋ねた。元グーグルの研究者で、現在はプライベート・メッセージ・アプリ「シグナル(Signal)」を開発するシグナル財団(Signal Foundation)のメレディス・ウィテカー社長は、その理由を見事に要約している。「怪談は伝染します。怖がるのは、とてもわくわくするし、刺激的なのです」。
もちろん、以前にも同じようなことがあった。AIによる破滅は、AIの大げさな宣伝に付きものなのだ。しかし、今回は違う気がする。AIのリスクと政策をめぐる議論において、「オヴァートンの窓(多くの人に受け入れられる考え方)」が変化したのだ。かつては極端な考え方であったものが、今では主流となり、ニュースの見出しになるだけでなく、世界のリーダーたちの関心も集めている。
そう考えているのはウィテカー社長だけではない。グーグルやマイクロソフトなどの大手テック企業や、オープンAI(OpenAI)のようなAIスタートアップ企業の有力者たちが皆、AIによって人類が破滅するリスクについて警告しながら、自社のAIモデルを公衆の監視の目から遠ざけようとしている。一方で、メタ・プラットフォームズ(メタ)は、また違う方向に進んでいる。
6月中旬、今年一番の暑さが続く中、私はメタのパリ本社を訪ね、同社の最近のAI研究について話を聞いた。エッフェル塔が見える屋上でシャンパンを飲みながら、チューリング賞を受賞したメタの主席AI科学者兼であるヤン・ルカンは、電子管楽器の製作など、自分の趣味の話をしてくれた。しかし、ルカンが本当に話したかったのは、超高度な知能を持つAIシステムが世界を征服するという考えが、「とんでもなく馬鹿げている」と考える理由だった。
人々は、AIシステムが「世界のあらゆる物質をペーパー・クリップに変えてしまうために、世界中のあらゆる資源を動員できるようになる」ことについて心配していると、ルカンは言う。「常軌を逸した考えです」(ルカンが言及していたのは、「ペーパー・クリップ最大化問題」という思考実験だ。できるだけ多くのペーパー・クリップを作るように頼まれたAIが、最終的には人間に危害を加える方法で実行しつつも、主目的は果たしているという設定の思考実験である)。
ルカンと共にチューリング賞を受賞した2人の先駆的なAI研究者で、ルカンと並んで「AIのゴッドファーザー」と呼ばれているジェフリー・ヒントンとヨシュア・ベンジオは、正反対の立場をとる。ヒントンとベンジオは最近、AIの実存的リスクについて積極的に発言するようになった。
メタのAI研究担当副社長であるジョエル・ピノーは、ルカンと同意見だ。彼女はAIに関する最近の議論を、「タガが外れている」と表現する。将来のリスクに対して極端に焦点を当てると、AIが現在及ぼしている害について話す余地があまりなくなると、ピノー副社長は言う。
「リスクについて理性的に議論する方法を検討するとき、通常はある結果が起こる確率に注目し、その結果に伴うコストを掛け合わせます。(実存的リスク論者は)本質的に、その結果に対し、無限のコストを掛け合わせています」と、ピノー副社長は話す。
「無限のコストを掛け合わせてしまうと、ほかのすべての結果について理性的な議論ができなくなります。そして、他のあらゆる議論の場から酸素を奪ってしまう。それはあまりにも良くないことだと思います」。
実存的リスクについて議論されることは、技術者たちがAIがもたらし得るリスクを認識していることの表れであるが、一方で、テクノロジー破滅論者にはもっと大きな秘密の動機がある。ルカンとピノー副社長によれば、それは「テクノロジーを規制する法律に影響を与えること」だという。
「現時点ではオープンAIが先行している状態なので、やるべき正しいことは、背後にあるドアをぴしゃりと閉めることです」と、ルカンは言う。「私たちは、AIシステムの機能が本質的に透明化されている未来を望むのでしょうか? それとも(中略)米国西海岸の少数のテック企業がAIシステムを独占的に所有する未来を望むのでしょうか?」
ピノー副社長やルカンと話して明らかになったことは、競合他社に比べて最先端のモデルや生成AIの製品展開が遅れているメタが、競争がどんどん激しくなるAIの市場で優位に立つために、自社で開発したAIモデルのオープンソース化を進めているということだ。例えばメタは、人間と同等の知能を持つAIシステムを構築する方法に関するルカンのビジョンを反映させた初めてのAIモデルをオープンソース化している。
テクノロジーのオープンソース化は、外部の者が不具合を発見し、企業の責任を追及できてしまうため、簡単なことではないとピノー副社長は言う。しかし、オープンソース化はまた、メタのテクノロジーがインターネットのインフラの一部として、より不可欠なものになることにも役立つ。
「実際にテクノロジーを共有すれば、その後のテクノロジーの使い方を決める力を手にすることができます」と、ピノー副社長は言う。
◆
欧州AI法の5つの重要ポイント
AI法にとって試練の時である。欧州議会で先月、AI法の規則案が賛成多数で可決された。本誌のテイト・ライアン・モズリー記者が、この法案の5つのポイントを挙げている。議会はAI法に、公共空間におけるリアルタイム生体認証と予測捜査の全面禁止、大規模AIモデルの透明性を確保する義務、著作物のスクレイピング禁止を盛り込みたいと考えている。また、レコメンド・アルゴリズムを、より厳しい規制が必要な「高リスク」AIに分類している。
次は何が起こるのか?今回の採決は、欧州連合(EU)が政策を無条件で採用することを意味するものではない。欧州議会のメンバーは次に、EUの評議会、そしてEUの行政執行機関である欧州委員会とともに、法案について詳細に至るまで徹底的に議論しなければならない。その議論が終わった後にやっと立法化されることになる。最終的な法案は、上記3つの機関が提出する3つの草案の折衷案となる。欧州の議員たちは、12月までにAI法を最終的な形に仕上げ、2026年までに規則を施行することを目指している。
AI法に関する私の以前の記事はここで読める。
AI関連のその他のニュース
顔認識をめぐる争いがAI法の運命を左右する。公共の場における顔認識ソフトウェアの使用を禁止するかどうかが、AI法の最終交渉で最大の争点となるだろう。欧州議会の議員たちはこのテクノロジーの全面的な禁止を望んでいるが、EU諸国は警察活動で使用する自由を望んでいる。(ポリティコ)
AI研究者たちがAIが現在もたらしている害に焦点を当てるように求める書簡に署名。また公開書簡だ!今回は、「公平性、説明責任、透明性(FAccT)」に関する米国コンピューター学会(ACM)のカンファレンス「ACM FAccT 2023」のAI研究者たちから出されたもので、政策立案者に対し、既存のツールを使って「民主主義、社会正義、基本的人権を守るためにAIシステムを設計、監査、または拒否する」ことを求めている。この公開書簡には、ホワイトハウスのAI権利章典を執筆したアロンドラ・ネルソンとスレッシュ・ヴェンカタスブラマニアンも署名者として名前を連ねている。
英国はAI規制のグローバルハブになることを望んでいる。英国のリシ・スナク首相が自国を、AI規制の世界的な中心地として売り込んだ。スナク首相の希望は、英国がEUのAI法と米国西海岸の間の「第三の道」を提供できるようになることだ。スナク首相は秋に、ロンドンでAI規制サミットを開催しようとしている。私はスナク首相の希望について懐疑的だ。英国が挑戦することはできるだろうが、最終的に英国のAI企業は、影響力のある経済圏でビジネスを展開したければ、EUのAI法に準拠せざるを得ないだろう。(タイム誌)
ユーチューブがAI分野でグーグルを優位に立たせるかもしれない。グーグルは、次の大規模言語モデルを訓練するために、同社の動画サービスであるユーチューブ が蓄積する膨大な動画を利用している。この素材は、グーグルがテキストだけでなく、音声や動画も生成できるモデルの訓練に役立つ可能性がある。どうやらこのことは、密かにチューブのデータを使ってAIモデルを訓練しているオープンAIも分かっているようだ。(ジ・インフォメーション)
創業4週間のAIスタートアップ企業が1億1480万ドルを調達。AIの誇大宣伝に関する話だ。製品もなく、従業員もほとんどいない、フランスの全く新しいAIスタートアップ企業ミストラル(Mistral)が、欧州史上最大のシード・ラウンドで、1億1480万ドル(1億500万ユーロ)を調達することに成功した。同社の創業者たちは以前、ディープマインド(DeepMind)とメタで働いていた。そのうちの2人は、メタのオープンソース言語モデルLLaMA(Large Language Model Meta AI)を開発したチームに関わっていた。(フィナンシャル・タイムズ)