このページの本文へ

火中の栗「DeepSeek」を拾うマイクロソフトの脊髄反射がすごい

2025年02月01日 23時30分更新

文● 大谷イビサ 編集●ASCII

  • お気に入り
  • 本文印刷

DeepSeek-R1がAzure AI FoundryとGitHubで利用可能に

 1月20日に中国のスタートアップから発表されたLLM「DeepSeek-R1」は、先週のIT業界の話題を一気にかっさらった。OpenAIの最新モデルである「o1」と同等の性能をGPT-4にかけたコストの約6%で実現し、しかもオープンソースで提供するという。昨今、中国産AIは目覚ましい進化を遂げているが(関連記事:中国製AIはハルシネーションレートですでに世界一)、今回のDeepSeek-R1は「AIモデルの開発に膨大なコストがかかるのが当たり前」という米国主導のAI業界の前提を覆したわけで、話題にならない方がおかしい。

 とはいえ、問題も噴出している。「そもそも開発コストの算出根拠がおかしい」「学習にOpenAIのデータを不正利用されているのでは?」「データやコードは含まれてないので純粋なオープンソースと言えない」「中国への輸入が禁止されているGPU(NVIDIA H100)を開発に用いているのでは?」など、いろいろいちゃもんが付いている状態。「何が本当で何が嘘か」というコンフィデンスマンJPの台詞を思い出させる混沌が現時点だ。

 そんな中、驚いたのはマイクロソフトがAzure/GitHubでいち早くDeepSeek-R1をホストしたこと。マイクロソフトは、小型言語モデルの「Phi」や1ビットLLMと呼ばれる「BitNet」のようなAI開発の低コスト化・省エネ化に結びつく技術開発に以前から熱心であり、DeepSeekと基本的な指向はかなり似ていると思う。

 とはいえ、同社が多額の投資を行なっているOpenAIは、API経由で出力したChatGPTのデータを取り込んでAIモデルを訓練するいわゆる「蒸留」を行なったDeepSeekは規約違反だと主張している最中。そんな「火中の栗」とも言えるDeepSeek-R1を、1800を越えるモデルの1つとは言え、いち早く利用できるようにしたマイクロソフトの脊髄反射力はすごいとしか言いようがない。ともあれ、技術的にもユニークで、ビジネスモデルや地政学的な観点でも、さまざまな話題を提供してくれるDeepSeekは、いまネタとして最高に面白い。

文:大谷イビサ

ASCII.jpのクラウド・IT担当で、TECH.ASCII.jpの編集長。「インターネットASCII」や「アスキーNT」「NETWORK magazine」などの編集を担当し、2011年から現職。「ITだってエンタテインメント」をキーワードに、楽しく、ユーザー目線に立った情報発信を心がけている。2017年からは「ASCII TeamLeaders」を立ち上げ、SaaSの活用と働き方の理想像を追い続けている。

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード