PCにダウンロードして動かせる
DeepSeek R1は、MITライセンスという無償・有償や改変・再配布等、ほぼ無条件に利用できるというライセンスで公開されています。もちろん、これほど大きなLLMは専用のコンピューティング環境を構築しなければ動作しません。しかし、改変に制限がないこともあり、すぐに量子化(軽量化)をすることで、小型化をさせる動きが現れました。
アップルで機械学習を研究しているアウン・ハヌーン(Awni Hannun)氏は、リリース直後に3ビット量子化を施したDeepSeek R1(ファイルサイズ370GB)を、大量のメモリを搭載したMac 2台で動作させることに成功したとX(旧Twitter)で報告しています。「家庭用ハードウェアに、オープンソースとして扱えるo1が近づいている」とも述べており、192GBのユニファイドメモリを搭載したMac Studioを2台と推測すれば200万円台となり、とても一般家庭で手が出るレベルとは言えませんが。
DeepSeek R1 671B running on 2 M2 Ultras faster than reading speed.
— Awni Hannun (@awnihannun) January 20, 2025
Getting close to open-source O1, at home, on consumer hardware.
With mlx.distributed and mlx-lm, 3-bit quantization (~4 bpw) pic.twitter.com/RnkYxwZG3c
ただ、DeepSeek R1にはそれなりのGPUを搭載したローカル環境でも動作を可能にする蒸留版「DeepSeek-R1-Distill」も合わせてリリースされています。Distillは「蒸留」の意味で、大きくて複雑なモデルから小さくて効率的なバージョンを作成する際に、そのパフォーマンスや能力を可能な限り保持しようとする技術のことを言います。
最大サイズの70Bから最小の1.5Bまであり、Bはbillion(10億)をあらわし、70Bの場合は700億パラメータを持つことを意味しています。また、「Qwen」は中国アリババのLLM、「Llama」は米メタのLLMであり、それらを蒸留時に「教師モデル」として学習を効率化するために使用したことを意味します。パラメータ数が多いほど性能は上がりますが、ファイルサイズが大きくなり、実行時に要求されるVRAMの容量は大きくなります。70Bで約43GB、32Bで約20GB、14Bで約9GB、7Bで約4.7GBとなり、それ以上のVRAMを搭載するビデオカードがあれば、ローカルPCで問題なく動かせる仕組みです。
DeepSeek-R1-Distillは多言語対応ですが、もともとのDeepSeek R1は英語か中国語を中心に思考する設計のため、サイズが小さくなるにつれて日本語能力が不安定になり、不自然な日本語しか出力されなくなります。筆者が試したところ、日本語で適切な応答を得るには14B以上が必要に感じました。
公開されているDeepSeek R1のDistill版の一覧。いずれもHuggingFaceからダウンロードできる(DeepSeek R1公式ページより)

この連載の記事
-
第125回
AI
グーグル画像生成AI「Nano Banana」超便利に使える“神アプリ” AI開発で続々登場 -
第124回
AI
「やりたかった恋愛シミュレーション、AIで作れた」 AIゲームの進化と課題 -
第123回
AI
グーグルの画像生成AI「Nano Banana」は異次元レベル AIコンテンツの作り方を根本から変えた -
第122回
AI
動画生成AI「Wan2.2」の進化が凄い アリババが無料AIモデルの牽引者に -
第121回
AI
愛していたAIが消えた日 ChatGPTだけと“付き合う”危うさ -
第120回
AI
ラフさえ描けばイラスト作品ほぼ完成 画像生成AI「FLUX.1 Kontext」LoRAが示す制作の未来 -
第119回
AI
無料の動画生成AI「Wan2.2」が凄すぎる PCローカルでこの品質が出せるとは -
第118回
AI
AIの「ASMRボイス」に脳ゾワゾワ 合成音声の進化と、収益化への課題 -
第117回
AI
“18禁”美少女AI「Ani」は孤独を癒すか、深めるか? -
第116回
AI
AIが書いた怪談小説が面白い 2分に1本のペースで出力されるのは驚異的 -
第115回
AI
“一貫性”がすごい画像生成AI 冬服→夏服も一発変換 話題の「FLUX.1 Kontext[dev]」 - この連載の一覧へ





