このページの本文へ

前へ 1 2 3 4 5 6 7 8 9 次へ

田口和裕の「ChatGPTの使い方!」 第37回

OpenAIのローカルAIを無料で試す RTX 4070マシンは普通に動いたが、M1 Macは厳しかった…

2025年08月08日 09時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

 OpenAIは8月6日、大規模言語モデル(LLM)「gpt‑oss」を公開した。従来のChatGPTシリーズは仕組みや学習済みデータが基本的に非公開で、利用はWebやアプリ経由に限られていたが、今回は学習済みモデルを誰でもダウンロードして自由に利用できる形式での提供となる。さっそくgpt‑ossをダウンロードし、ローカル環境での実行方法を確認した。

gpt‑ossとは、なにがすごいの?

 gpt‑ossはオープンウェイト推論モデルで、20B(約200億)120B(約1200億)パラメータの2種類を提供する。推論(リーズニング)性能に特化し、思考の連鎖(Chain of Thought=CoT)、少ない例からの関数呼び出し、外部ツール連携などに対応している。Tau‑BenchやHealthBench、数学競技AIMEなどのベンチマークでは、同規模の他オープンモデルを上回る性能を示した。

数学競技AIMEベンチではo3やo4-miniに匹敵

 安全性も重視されている。GPT‑4oクラスの社内基準を満たし、プロンプト攻撃や敵対的ファインチューニングへの耐性も確認済み。公開前には外部専門家レビューやRed Teaming Challengeも実施され、オープンモデルとしては異例の徹底ぶりだ。

 可用性の面でも柔軟だ。20Bモデルは16GBメモリで動作し、LM StudioやOllamaでWindowsでも試せる。120Bモデルは単一80GB GPUで推論可能で、GroqやHugging Face Inference APIなどクラウドでも運用できる。いずれもApache 2.0ライセンスで提供されており、OpenAIの使用ポリシー(gpt-oss usage policy)に準拠すれば、無料かつ商用利用も可能だ。

 このようにgpt‑ossは高い推論力・安全性・幅広い利用性を兼ね備えた次世代オープンモデルといえる。

前へ 1 2 3 4 5 6 7 8 9 次へ

カテゴリートップへ

この連載の記事
ピックアップ