画像クレジット:ERIC RISBERG/ASSOCIATED PRESS
アルトマンCEO解任から一転して復帰の喧噪も冷めやらぬ間に、今度はオープンAIが小学校の算数の問題を解けるAIモデルを開発したと報じられた。汎用人工知能に近づいたと色めき立つ向きもあるが、噂に過度な期待は禁物だ。
この記事は米国版ニュースレターを一部再編集したものです。
先月起こったオープンAI(OpenAI)でのドラマチックな出来事以来、オープンAIの最高科学責任者であるイリヤ・サツケバーと取締役会が、なぜCEOのサム・アルトマンの解任を決めたのかについての噂が飛び交っている。
一方、詳細はまだ明らかになっていないが、オープンAIの研究チームが人工知能(AI)に「画期的な進歩」をもたらし、スタッフを驚かせたという報告があった。ロイターとジ・インフォメーションが、オープンAIの研究チームがAIシステムを作成する新しい方法を考案し、「Q*」(キュースターと読む)と呼ばれる新しいモデルを作成したと報じたのだ。このAIモデルは、小学生レベルの算数の問題を解けるという。ロイターの取材に応じたオープンAIの関係者によると、社内には、人間よりも賢いAIシステムとして大いに注目されている「汎用人工知能(AGI)」の構築を目指す同社の探求において、Q*が画期的な進歩となるかもしれないと考えている人もいるという。なお、オープンAIはQ*についてのコメントを拒否した。
ソーシャルメディアは憶測と過剰な期待で満ちているため、数学とAIにおけるブレークスルーは実際にどのくらい重大なことなのか、何人かの専門家に尋ねてみた。
研究者たちは長年にわたり、数学の問題を解けるAIモデルを作ろうとしてきた。「チャットGPT(ChatGPT)」や「GPT-4」などの言語モデルはある程度の計算は実行できるが、まだそれほどレベルは高くはないし、信頼性も低い。エディンバラ大学でAIを教える講師のウェンダ・リーは、「現時点では、AIを使用して数学の問題を確実に解くことができるアルゴリズムや、適切なアーキテクチャすらないのです」と述べる。言語モデルが使用する深層学習とニューラルネットワークの一種であるトランスフォーマーは、パターン認識には優れているが、おそらくそれだけでは十分ではないとリー講師は付け加える。
「数学は推論能力のベンチマークです」と同講師は話す。数学を推論できる機械は、理論上はコンピューターのコードを書いたり、ニュース記事から結論を導き出すなど、既存の情報から他のタスクを実行する方法を学習できる可能性がある。数学は、AIモデルが推論する能力を持ち、扱っている問題を本当に理解する必要があるため、特に解くのが難しい問題なのだ。
確実に数学の問題を解くことができる生成AI(ジェネレーティブAI)システムを作るには、非常に抽象的になる可能性がある特定の概念の具体的な定義を、しっかりと把握する必要があるだろう。数学とAIを専門とするケンブリッジ大学の博士研究員のケイティ・コリンズによると、多くの数学の問題では、複数のステップにわたってある程度の計画を立てる必要があるという。実際、メタの主任AI科学者であるヤン・ルカンは先日、X(旧ツイッター)とリンクトイン(Linkedin)に、Q* は「オープンAIによる計画中の試み」である可能性が高いと考えていると投稿した。
オープンAIの設立当初の懸念事項の1つである、AIが人間の生存リスクをもたらすことを心配する人たちは、そのような機能が悪いAIにつながるのではないかと懸念している。このようなAIシステムが独自の目標を設定し、何らかの方法で現実の物理世界またはデジタル世界と連携し始めると、安全性への懸念が生じる可能性があるとコリンズ博士は話す。
しかし、この種の数学の問題を解いたことで、数学とAIはより強力なAIシステムに一歩近づくかもしれないが、それは超知能の誕生を示すものではない。
「数学の問題を解くことができるAIの誕生によって汎用人工知能がすぐに完成したり、私たちが恐ろしい状況に陥ることになるとは思いません」とコリンズ博士は言う。さらに、AIがどのような数学の問題を解いているのかを強調することも非常に重要であると付け加える。
「小学校の算数の問題を解くことと、フィールズ賞(数学に関する最も権威のある賞)を受賞できるレベルまでAIの数学の能力の限界を押し上げることとは、まったく違います」。
機械学習の研究は小学校の問題を解くことに焦点を当ててきたが、小学校の問題は、最先端のAIシステムでもまだ完全に解くことができていない。極めて単純な算数の問題は解くことができないが、非常に難しい問題では優れた能力を発揮できるAIモデルもある、とコリンズ博士は話す。たとえばオープンAIは、高校の数学オリンピックの問題を解くことが可能な専用のAIツールを開発しているが、これらのシステムが人間を上回るパフォーマンスを発揮できることはまれである。
とはいえ、本当にQ*ができるのならば、数学の方程式を解くことができるAIシステムの構築は魅力的だ。数学をより深く理解することで、たとえば科学研究や工学に役立つ応用が広がる可能性がある。数学的な回答を生成する機能は、より適切に個別化された個別指導を開発したり、数学者が代数をより迅速に実行したり、より複雑な問題を解いたりするのに役立つ可能性がある。
新しいAIモデルが汎用人工知能への大きな期待に火をつけたのは、今回が初めてではない。ちょうど昨年、テクノロジー関係者たちはグーグル・ディープマインド(Google DeepMind)の「ガトー(Gato)」 について同じことを言っていた。ガトーはアタリのビデオゲームをプレイしたり、画像にキャプションを付けたり、チャットをしたり、本物のロボットアームでブロックを積み上げたりできる「ジェネラリスト」AIモデルなのだ。当時は、ディープマインドはさまざまな機能を非常にうまく実行できるため、「汎用人工知能の完成までぎりぎりに迫った」と言う研究者すらいた。そして今回、開発している研究機関こそ違うものの、同じような過剰な期待が高まっている。
こうしたAIへの大きな期待のサイクルはたしかに素晴らしいPRになるかもしれない。だが、AIをめぐる現実の具体的な害や問題から人々の目をそらすことにもなり、この分野全体にとってプラスの影響よりもマイナスの影響のほうが大きいと言える。強力な新しいAIモデルに関する噂は、規制を嫌うテクノロジー業界にとっては、大きなオウンゴールになる可能性もある。たとえば、EU(欧州連合)は広範な「AI法(AI Act)」の完成に非常に近づいている。現在、議員の間で最も大きな議論になっているのは、テック企業に最先端のAIモデルを自主規制する権限を与えるかどうかという点だ。
オープンAIの取締役会は、有害な技術のリリースを防ぐための社内のキルスイッチおよびガバナンス機構として設計された。先月のオープンAIの取締役会でのドラマにより、こうしたテック企業では利益が常に優先されることが示された。こうした企業に自主規制を任せる理由を説明することも難しくなるだろう。議員にはこれらの点に注目してほしい。