2025年1月20日、中国のAIスタートアップ「DeepSeek」は、数学的推論やコーディング能力でOpenAIの最新モデル「o1」と同等の性能を持つとされる大規模言語モデル「DeepSeek-R1(以下R1)」を公開した。
R1は、強化学習を中心とした独自の開発手法により高度な推論能力を実現している。開発費用は約5.58百万ドル(およそ8億円)と報告されているが、これは最終的なトレーニングコストのみを指しており、総投資額はこれを大きく上回る可能性がある。
この発表は業界に衝撃を与え、NVIDIAの株価が一時的に大幅下落するなどの影響を及ぼした。さらに、APIアクセス料金がo1よりも大幅に安価である点も、多くの開発者にとって魅力的だ。
しかし、R1の最大の特徴は、MITライセンスの下でオープンソース(正確には学習済みのモデルの重み(Weight)のみを公開し、トレーニング手法やコードは非公開の「オープンウェイト」)として公開されたことである。これにより、誰でもAIモデルの重みをダウンロードし、自由に利用・改良することが可能となった。
もちろん、これだけ高性能なモデルをローカルで利用するためには、大規模なサーバーマシンや膨大な電力が必要となるため、個人で扱うのは現実的ではない。しかし、R1には蒸留や量子化といった技術で軽量化されたモデルも用意されており、これを利用すれば個人でも扱うことが可能である。
詳しくは「DeepSeek R1、無料で使えるAIとしては最強クラス」を参考にしてほしい。
今回は「Stable Diffusion」をローカルで動かすために用意した筆者の環境(下記)でも実行可能かどうかを検証してみよう。
CPU | Core i7-13700F(2.1GHz) 16コア24スレッド |
---|---|
グラフィックス | NVIDIA GeForce RTX 4070 12GB |
メモリー | 48GB DDR4 3200MHz |
SSD | 2000GB(M.2) |
またスマホは「Google Pixel 9 Pro XL(16 GB RAM)」という比較的新しめの端末で検証した。
LLMの使い方を分類
大規模言語モデル(LLM)の利用形態は、大きく以下のように分類できる。それぞれの特徴を見ていこう。
Webアプリケーション型
「ChatGPT」に代表されるWebブラウザーから利用するタイプ。ユーザー登録するだけですぐに利用できる手軽さが最大の魅力だが、機能のカスタマイズには制限があり、基本的には提供されている機能をそのまま使うことになる。また、会話内容はサービス提供者のサーバーに送信されるため、機密情報を扱う際は注意が必要だ。
クラウドベース型のアプリ
クラウド上のAIにアクセスするスマートフォンアプリとして提供されるタイプ。スマートフォン向けのChatGPTアプリをはじめ、多数のアプリが用意されている。場所を選ばず利用できる手軽さが魅力。通信環境に依存するものの、極端に古い機種でなければ問題なく動作する。ただし、画面サイズの制約から長文の入出力には適さない面もある。
API利用型
プログラムからLLMを呼び出して使う方法。例えば、チャットボットを自社のWebサイトに組み込んだり、社内の業務システムでAIを活用したりといった事例だ。カスタマイズの自由度が高く、必要な時に必要なだけLLMの機能を使えるが、プログラミングの知識が必須で、利用量に応じた料金(モデルによって大きく異なる)も必要になる。
ローカル実行型
AIモデルを自分のデバイス上で直接動かすタイプ。PC、スマートフォンなど、対応するデバイス上でオフライン利用が可能になる。データの機密性が保て、ネットワーク接続も不要という大きな利点がある。ただし、ある程度高性能なハードウェアが必要で、セットアップにも技術的な知識が求められる。
なお、R1が中国製ということでデータの扱いに懸念を持つ人もいるだろうが、ローカル実行であれば基本的に入力データが外部に送信されることはない。ただし、個人情報の入力は避けるべきだ。これはR1に限らず、全てのLLMに共通する注意点である。
今回検証するのはこのローカル実行型だ。
R1をローカルで動かすために
実際にLLMをローカルで動かすには、主に2つの要素が必要だ。
1つ目は「モデルの重み」。これは言わばAIの「脳」にあたるもので、学習済みの知識が詰まった大きなファイルだ。R1の場合、フルサイズのモデル(およそ650GB)から量子化(軽量化)されたバージョンまで、複数のサイズが提供されている。今回は一般的なPCでも動作する量子化モデルを使用する。
もう1つはモデルを動かすための「ソフトウェア」。重みファイルだけではAIは動かないため実際に動作させるためのソフトウェアが必要となる。
さらに実用的に使うためには、ユーザーとAIの対話を仲介するインターフェースやプロンプトの管理や会話履歴の保存といった補助機能も必要になる。
これらの機能をまとめて提供するソフトウェアが、以下のように複数存在する。
Jan
洗練された見た目と使いやすさを兼ね備えたツール。デスクトップアプリケーションでありながらブラウザのような使い心地を実現。多くのモデルに対応し操作性も良好だ。
GPT4ALL
Nomic AIが開発した使いやすいGUIツール。Windows、macOS、Linux対応で、インストールも簡単。ただし、対応モデルが限られており、カスタマイズ性もそれほど高くない。
text-generation-webui
オープンソースのWebインターフェース。多くのモデルに対応し、機能も豊富。ただし、セットアップにはPythonの知識が必要で、初心者には敷居が高い。
ollama
コマンドラインベースのシンプルなツール。Windows、macOS、Linuxに対応。インストールが簡単でモデルの管理も容易。コマンドラインに抵抗がなければ、これがおすすめだ。
LM Studio
直感的なGUIを備えたアプリケーション。Windows、macOS、Linux対応。モデルのダウンロードから実行までマウス操作だけで完結する。初心者向きだが、カスタマイズ性はやや低い。
PocketPal
iOS/Android両対応のモバイルアプリ。スマートフォンでローカルにLLMやSLM(小規模言語モデル)を動かせるツール。モバイルでプライバシーを保ちながらAIを利用したい場合の選択肢となる。
今回はデスクトップパソコンでollamaとLM Studioを、またスマートフォンではPocketPalを使ってR1を動かしてみよう。

この連載の記事
-
第30回
AI
グーグルAI「Gemini」 無料版と有料版の使い方を徹底解説 -
第29回
AI
動画生成AI、無料プランでも使い倒せば月200本作れます サービス同士の違いも比較しました→Runway、Pika、Hailuo、Kling、Luma、Kaiber、PixVerse -
第28回
AI
あなたの作業を超効率化する、すごいAIサービス10選【2024年最新版】 -
第27回
AI
ChatGPT「canvas」使い方と、Claude「Artifacts」との違いを解説 文章作成やコーディングがスイスイできます -
第26回
AI
プレゼン資料が一発で出せると話題 AIツール「v0」の使い方 -
第25回
AI
チャットAI「Claude」すごい新機能「Artifacts」の使い方、全部教えます -
第24回
AI
めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 -
第23回
AI
最新の生成AI使うなら「Perplexity Pro」がお得です -
第22回
AI
AI検索「Perplexity」がかなり便利だったので紹介します -
第21回
AI
ChatGPTのライバル「Claude 3」の使い方 良い点、悪い点まとめ - この連載の一覧へ