このページの本文へ

田口和裕の「ChatGPTの使い方!」 第37回

OpenAIのローカルAIを無料で試す RTX 4070マシンは普通に動いたが、M1 Macは厳しかった…

2025年08月08日 09時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

ローカルでgpt‑ossを動かす方法

 gpt‑ossの魅力は、学習済みモデルを自分のPCで直接動かせることだ。ローカルで実行すればインターネット接続が不要になり、応答速度も安定する。さらに、会話ログや入力データを外部に送信せずに済むため、プライバシー面でも有利だ。

 加えて、ローカル実行なら独自のシステムやアプリと組み合わせた高度な活用も可能になる。たとえば自作のツールと連携させたり、独自プロンプトで継続的に会話させたり、APIレスポンスを中間処理に使うといったカスタマイズも視野に入る。プログラミング知識があれば、ChatGPTでは難しかった実験的な使い方も柔軟に実現できる。

 さらに最近では、LangChainOpenAgentsのようなエージェントツールを使えば、専門的な知識が少なくてもLLMに複数のタスクを実行させるような小規模な自動化やアプリ開発も可能だ。たとえば、複数の文書を読み込んで要点をまとめたり、指定の条件でファイルを分類・整理したりといった処理を、自然言語ベースの指示だけで動かせる。

 さらに、自分で開発するのが難しい場合でも、manusのようなノーコードAI開発支援サービスを活用すれば、「gpt‑ossを使ってこういうツールがほしい」と依頼するだけで、ちょっとした自動化アプリやカスタムチャットボットなどを構築してもらうことも可能だ。ローカルモデルの柔軟性は、作れる人だけのものではなくなりつつある。

 では実際に、gpt‑ossをローカルで動かすにはどうすればいいのか。環境構築や操作の難易度に応じて、いくつかの方法が用意されている。

  • LM Studio:GUI操作で簡単にモデルをダウンロード&実行できる。初心者におすすめ。
  • Ollama:MacやLinux、WSL(Windows Subsystem for Linux)環境で動作する軽量な実行ツール。特にMacではインストールが簡単で、量子化済みモデルを使えば高速に動作する。
  • CLI環境(Transformers / vLLM / llama.cpp):PythonやC++で直接モデルを読み込み、スクリプトやサーバーに組み込み可能。自動化や高度なカスタマイズ向き。

gpt-oss対応をアピールするLM Studioのサイト

 ただし、個人PCで現実的に動かせるのは20Bモデルのみ。120Bモデルは80GB級GPUやクラウド環境が前提だ。まずは次に紹介するLM Studioを使ったローカル実行が、最も簡単で確実な方法になる。

カテゴリートップへ

この連載の記事
ピックアップ