このページの本文へ

前へ 1 2 3 4 5 6 7 8 9 次へ

田口和裕の「ChatGPTの使い方!」 第37回

OpenAIのローカルAIを無料で試す RTX 4070マシンは普通に動いたが、M1 Macは厳しかった…

2025年08月08日 09時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

クラウドでもgpt-ossを活用できる

 ローカルでgpt-ossを動かすのが難しい場合は、クラウド経由で利用する方法もある。代表的なのが「Groq」と「Hugging Face Inference API」の2つだ。

 Groqは、高速な推論エンジンを提供するクラウドサービスで、gpt-ossにもすでに対応済み。アカウントを作成すればすぐに使い始めることができる。初期利用は無料枠内で可能だが、商用や大規模な利用には有料プランへの移行が必要になる。

Groqでgpt-oss-20bを使用しているところ

 もうひとつの手段であるHugging Face Inference APIは、Hugging Faceが提供するホスティングサービスで、API経由でさまざまなモデルを実行できる。gpt-ossの20Bおよび120Bも公開されており、PythonコードやcURLを使って簡単にアクセス可能だ。こちらも一定の無料利用枠があるが、継続的な利用や高負荷の実行には有料プランへの登録が必要となる。

Hugging Face経由でgpt-ossを手軽に試せるコード例

 このように、PCのスペックにかかわらず、クラウド経由でもgpt-ossを試す手段が用意されている。ローカル実行にハードルを感じる場合でも、気軽にその性能を体験できるのは、オープンモデルならではの魅力と言える。

まとめ:OSSでもここまでできる時代に

 ローカル環境でOpenAI製の高性能LLM「gpt-oss」を実行できたのは大きな驚きだ。日本語の出力も安定しており、応答速度・精度ともに十分に実用レベル。これがオープンソースとして配布されていること自体が、すでにひとつの事件だと言える。

 筆者の環境(Mac M1/16GB)ではメモリ不足により起動できなかったのは残念だったが、WindowsマシンのRTX 4070(12GB VRAM)では問題なく動作した。最適化次第では、さらに幅広い環境でも使える可能性がある。

 それにしても、GPT-4相当とも言われるモデルをここまで自由に触れるようにしてしまっていいのか?裏を返せば、OpenAIはGPT-5以降に相当な自信を持っているのかもしれない。

 もっとも、これは「Apache 2.0 ライセンス」+「OpenAIのgpt-oss利用ポリシー」のもとで提供されている。完全な自由が保障されたOSSとは言い切れず、用途には一定の制約がある点には注意が必要だ。

田口和裕(たぐちかずひろ)

 1969年生まれ。ウェブサイト制作会社から2003年に独立。雑誌、書籍、ウェブサイト等を中心に、ソーシャルメディア、クラウドサービス、スマートフォンなどのコンシューマー向け記事や、企業向けアプリケーションの導入事例といったエンタープライズ系記事など、IT全般を対象に幅広く執筆。2019年にはタイのチェンマイに本格移住。
 新刊:発売中「生成AI推し技大全 ChatGPT+主要AI 活用アイデア100選」、:https://amzn.to/3HlrZWa

前へ 1 2 3 4 5 6 7 8 9 次へ

カテゴリートップへ

この連載の記事
ピックアップ