このページの本文へ

田口和裕の「ChatGPTの使い方!」 第37回

OpenAIのローカルAIを無料で試す RTX 4070マシンは普通に動いたが、M1 Macは厳しかった…

2025年08月08日 09時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

M1 Macでも動くかな?

 ローカル実行といえば、やはり気になるのがMacでの動作だ。ネット上では、MacBook Air M3、MacBook Pro M2、MacBook Pro M3 Maxといった比較的新しい機種でgpt-oss-20bの実行報告が見つかる。しかし筆者の環境はやや古めのMac mini M1、メモリは16GB。この構成で動くのか試してみた。

 手順はWindowsとほぼ同様。LM Studioをインストールし「gpt-oss-20b」をダウンロードする。

 gpt-oss-20bをそのままロードしようとしたところ、LM Studioの安全装置「guardrails」が発動。システムリソース不足と判定されて、ロードが中断されてしまった。

 次に試したのはGGUF形式。ローカル実行に最適化されたモデルファイルで、量子化によってサイズを圧縮している(とされる)フォーマットだ。

 一度LM Studioを完全に終了し、Macを再起動したうえでGGUF版をロードしてみたところ、なんとか読み込みに成功。ただし動作は明らかに重く、レスポンスもかなり遅かった。

 メモリも限界で、スワップが大量に発生。生成内容も満足できる水準には届かなかった。

 gpt-oss-20bのGGUF版は、一応M1 Macでも動作はした。しかしメモリ16GBの構成では非常に厳しく、実用性はかなり低い。快適に使いたいなら32GB以上のメモリを積んだMacや、十分なVRAMを持つWindows+dGPU環境のほうが無難といえるだろう。実際、M1でもCPUの処理能力に大きな問題はなく、主に16GBというメモリ制限が足かせとなっている。

カテゴリートップへ

この連載の記事
ピックアップ