このページの本文へ

前へ 1 2 3 4 5 6 次へ

田口和裕の「ChatGPTの使い方!」 第31回

完全無料!話題のDeepSeek R1をローカルで動かしてみた。MacやスマホでもOK!

2025年02月14日 10時00分更新

文● 田口和裕

  • お気に入り
  • 本文印刷

 2025年1月20日、中国のAIスタートアップ「DeepSeek」は、数学的推論やコーディング能力でOpenAIの最新モデル「o1」と同等の性能を持つとされる大規模言語モデル「DeepSeek-R1(以下R1)」を公開した。

 R1は、強化学習を中心とした独自の開発手法により高度な推論能力を実現している。開発費用は約5.58百万ドル(およそ8億円)と報告されているが、これは最終的なトレーニングコストのみを指しており、総投資額はこれを大きく上回る可能性がある。

 この発表は業界に衝撃を与え、NVIDIAの株価が一時的に大幅下落するなどの影響を及ぼした。さらに、APIアクセス料金がo1よりも大幅に安価である点も、多くの開発者にとって魅力的だ。

 しかし、R1の最大の特徴は、MITライセンスの下でオープンソース(正確には学習済みのモデルの重み(Weight)のみを公開し、トレーニング手法やコードは非公開の「オープンウェイト」)として公開されたことである。これにより、誰でもAIモデルの重みをダウンロードし、自由に利用・改良することが可能となった。

 もちろん、これだけ高性能なモデルをローカルで利用するためには、大規模なサーバーマシンや膨大な電力が必要となるため、個人で扱うのは現実的ではない。しかし、R1には蒸留や量子化といった技術で軽量化されたモデルも用意されており、これを利用すれば個人でも扱うことが可能である。

 詳しくは「DeepSeek R1、無料で使えるAIとしては最強クラス」を参考にしてほしい。

 

 今回は「Stable Diffusion」をローカルで動かすために用意した筆者の環境(下記)でも実行可能かどうかを検証してみよう。

CPU Core i7-13700F(2.1GHz) 16コア24スレッド
グラフィックス NVIDIA GeForce RTX 4070 12GB
メモリー 48GB DDR4 3200MHz
SSD 2000GB(M.2)

 またスマホは「Google Pixel 9 Pro XL(16 GB RAM)」という比較的新しめの端末で検証した。

LLMの使い方を分類

 大規模言語モデル(LLM)の利用形態は、大きく以下のように分類できる。それぞれの特徴を見ていこう。

Webアプリケーション型

 「ChatGPT」に代表されるWebブラウザーから利用するタイプ。ユーザー登録するだけですぐに利用できる手軽さが最大の魅力だが、機能のカスタマイズには制限があり、基本的には提供されている機能をそのまま使うことになる。また、会話内容はサービス提供者のサーバーに送信されるため、機密情報を扱う際は注意が必要だ。

クラウドベース型のアプリ

 クラウド上のAIにアクセスするスマートフォンアプリとして提供されるタイプ。スマートフォン向けのChatGPTアプリをはじめ、多数のアプリが用意されている。場所を選ばず利用できる手軽さが魅力。通信環境に依存するものの、極端に古い機種でなければ問題なく動作する。ただし、画面サイズの制約から長文の入出力には適さない面もある。

API利用型

 プログラムからLLMを呼び出して使う方法。例えば、チャットボットを自社のWebサイトに組み込んだり、社内の業務システムでAIを活用したりといった事例だ。カスタマイズの自由度が高く、必要な時に必要なだけLLMの機能を使えるが、プログラミングの知識が必須で、利用量に応じた料金(モデルによって大きく異なる)も必要になる。

ローカル実行型

 AIモデルを自分のデバイス上で直接動かすタイプ。PC、スマートフォンなど、対応するデバイス上でオフライン利用が可能になる。データの機密性が保て、ネットワーク接続も不要という大きな利点がある。ただし、ある程度高性能なハードウェアが必要で、セットアップにも技術的な知識が求められる。

 なお、R1が中国製ということでデータの扱いに懸念を持つ人もいるだろうが、ローカル実行であれば基本的に入力データが外部に送信されることはない。ただし、個人情報の入力は避けるべきだ。これはR1に限らず、全てのLLMに共通する注意点である。

 今回検証するのはこのローカル実行型だ。

R1をローカルで動かすために

 実際にLLMをローカルで動かすには、主に2つの要素が必要だ。

 1つ目は「モデルの重み」。これは言わばAIの「脳」にあたるもので、学習済みの知識が詰まった大きなファイルだ。R1の場合、フルサイズのモデル(およそ650GB)から量子化(軽量化)されたバージョンまで、複数のサイズが提供されている。今回は一般的なPCでも動作する量子化モデルを使用する。

 もう1つはモデルを動かすための「ソフトウェア」。重みファイルだけではAIは動かないため実際に動作させるためのソフトウェアが必要となる。

 さらに実用的に使うためには、ユーザーとAIの対話を仲介するインターフェースやプロンプトの管理や会話履歴の保存といった補助機能も必要になる。

 これらの機能をまとめて提供するソフトウェアが、以下のように複数存在する。

Jan

 洗練された見た目と使いやすさを兼ね備えたツール。デスクトップアプリケーションでありながらブラウザのような使い心地を実現。多くのモデルに対応し操作性も良好だ。

GPT4ALL

 Nomic AIが開発した使いやすいGUIツール。Windows、macOS、Linux対応で、インストールも簡単。ただし、対応モデルが限られており、カスタマイズ性もそれほど高くない。

text-generation-webui

 オープンソースのWebインターフェース。多くのモデルに対応し、機能も豊富。ただし、セットアップにはPythonの知識が必要で、初心者には敷居が高い。

ollama

 コマンドラインベースのシンプルなツール。Windows、macOS、Linuxに対応。インストールが簡単でモデルの管理も容易。コマンドラインに抵抗がなければ、これがおすすめだ。

LM Studio

 直感的なGUIを備えたアプリケーション。Windows、macOS、Linux対応。モデルのダウンロードから実行までマウス操作だけで完結する。初心者向きだが、カスタマイズ性はやや低い。

PocketPal

 iOS/Android両対応のモバイルアプリ。スマートフォンでローカルにLLMやSLM(小規模言語モデル)を動かせるツール。モバイルでプライバシーを保ちながらAIを利用したい場合の選択肢となる。

 今回はデスクトップパソコンでollamaとLM Studioを、またスマートフォンではPocketPalを使ってR1を動かしてみよう。

前へ 1 2 3 4 5 6 次へ

カテゴリートップへ

この連載の記事
ピックアップ