このページの本文へ

西田宗千佳の「AIトレンドトラッキング」 最終回

“生成AI元年”が終わり、ビジネスへの実装段階になってきた

2024年04月04日 07時00分更新

文● 西田宗千佳 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

アップル、高度な言語理解を持つ新型AIモデル「MM1」を発表(3月18日)

 アップルは生成AIで出遅れ気味、と言われる。オンデバイスAI自体はけっこう使っているので「AIで遅れている」というのは一面的な見方に過ぎないが、実際、生成AI自体は製品にはあまり目立つ形で実装しておらず、他社に比べ見劣りする。

 アップルのティム・クックCEOは「2024年中にAIに関する発表をする」としており、おそらくは、6月開催のWWDCでなんらかの発表をする、と予測されている。

 噂や報道として、アップルがGoogleと組んでGeminiを使うのでは……という話もあったが、「時間を買う」という意味では可能性は高いだろう、と思う。

 論文発表された「MM1」がどう使われるのかはまだわからない。製品実装まではまだ時間がかかる可能性もある。

 だが、スマホやApple Vision Proのようなデバイスでは、カメラやマイクからの情報を活用した「ローカルかつマルチモーダルなAIの活用」が重要になる。MM1はそうした用途に向いているように見えるし、同様に、Androidを持つGoogleのGeminiも、マルチモーダル性を重視している。

 そんなところからも、メーカーとしての特性や狙いが見えてくる。

Sakana AI、新手法「進化的モデルマージ」を公開 複数AIを自動でかけあわせ新モデルを生み出す(3月25日)

 LLMを学習させるには膨大な演算リソースが必要になる。ビッグテックにとってはある意味有利だが、それが持続的で公平なことか、というと疑問があるのもまた事実。

 そこで色々な「省エネ」手法が検討されてきたわけだが、「モデルのマージ」は非常に有望だ。特に言語による差異や特殊事情による違いなど、特化モデルを作るための手法として、進化的モデルマージはかなり面白い。

 Sakana AIはどんな方法でAIを作っていくのだろう……と注目していたのだが、このパターンで来るとは予想していなかった。

軽さを誇るNTTのLLM「tsuzumi」開始 オンプレ利用の声に応える(3月25日)

 ビッグテックと同じやり方では難しい、というのはNTTでも同じ。tsuzumiは学習ソースの精査と事前処理によって、パラメータ量は少なくても賢くニーズに合った反応を返す……というのがポイントになっている。

 クラウドでなくオンプレミス運用、という話が出てくるのも日本らしい。海外のプラットフォーマーのクラウドにデータを保存したくない、というニーズゆえだろう。NTTとしても、tsuzumiを軸にシステム案件を多く受注したいだろうし、相当に力が入っている。

 ただ、導入後どのような価値が生まれたか、という評価はこれから出てくる。海外プラットフォーマーとの競争の中で、コストや機能性向上などでどう戦っていくかが重要となる。

 パラメータ数では戦えないが故に、tsuzumiでは将来的に、複数の専門性を持ったLLMを連携させた「フェデレーション型」での運用も想定されている。そうした部分も含めた独自の価値をどうアピールするか、注目しておきたい。

カテゴリートップへ

この連載の記事
ピックアップ