このページの本文へ

田口和裕の「ChatGPTの使い方!」 第31回

完全無料!話題のDeepSeek R1をローカルで動かしてみた。MacやスマホでもOK!

2025年02月14日 10時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

スマホで試してみよう

 最後にスマートフォンアプリ「PocketPal AI」を試してみよう。AndoridはPlayストア、iOSはApp Storeからアプリをダウンロードしよう。なお検証したスマートフォンは「Google Pixel 9 Pro XL(16 GB RAM)」だ。

 ダウンロードが終わったらタップして起動しよう。

 起動直後の画面、このままでは使えないので右下の「Go to Models」をタップしてモデルをダウンロードしよう。

 アプリで使えるモデルのリストが表示される。ollamaやLM Studioと違い、DeepSeekのモデルはまだ登録されていなかったため、右下の「+」をタップ、「Add From Hugging Face」をタップしよう。

 もちろんここにリストされているモデルを使いたい場合はそのまま「Download」をタップすればよい。

 画面下部の検索ウィンドウに「DeepSeek」と入力して検索。

 いつもの「DeepSeek-R1-Distill-Llama-8B」をタップ。

 このモデルには4つの量子化モデルが用意されている。量子化とは先述の通りモデルの精度をある程度犠牲にする代わりに、サイズを小さくする技術だ。

 これまでのollamaやLM Studioでは自動的に4ビット(Q4)モデルが選択されていたが、PocketPal AIではまだDeepSeekがデフォルトモデルとして登録されていないため、Hugging Faceから直接ダウンロードすることになる。

 ファイル名に含まれる「Q3」「Q4」「Q6」「Q8」は、それぞれ3ビット、4ビット、6ビット、8ビットでの量子化を表している。3ビット(Q3)モデルは4.32GB、8ビット(Q8)モデルは8.54GBと、ビット数が小さいほどファイルサイズは小さくなるが、その分精度は低下する。

 ここではollamaやLM Studioと同じようにQ4モデルを選択し、「↓」をタップしてダウンロードしよう。

 ダウンロードが開始される。4GBを超えるデータなのでWi-Fi環境を利用したほうがいいだろう。

 ダウンロードが終了したら表示される「Load」をタップ。

 画面上部のモデル表示欄に「DeepSeek-R1-Distill-Llama-8B」と表示されれば準備OKだ。

スマホでも会話できるかな?

 では、いよいよ実験だ。画面下部の入力欄にプロンプトを入力して「紙飛行機」アイコンをタップ。

プロンプト:Introduce yourself

 これだけ生成するのに10秒以上時間はかかるが、無事ローカルでも動作することがわかった。

 これまでと同じモデルなので日本語性能も同程度かと思われる。ただし、このモデルをベースに日本語対応を強化したファインチューニングモデルも続々と登場しているので、試してみるのもいいだろう。

カテゴリートップへ

この連載の記事
ピックアップ