このページの本文へ

田口和裕の「ChatGPTの使い方!」 第47回

9Bなのに120B超え!? Qwen3.5-9BがローカルAIの常識を変えた

2026年03月20日 17時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

ローカルLLMの実力は?

 ベンチマークでは高い性能が示されているが、実際の使い勝手はどうだろうか。ローカルLLMで重要なのは、日常的な質問に自然に答えられるか、画像やコード生成といった実用的なタスクをどこまでこなせるかだ。ここでは実際にLM Studio上でQwen3.5-9Bを動かし、日本語応答、画像理解、コーディング能力などを確認してみる。

日本語での応答品質

 まずは日本語での応答品質から確認してみよう。ローカルLLMでは、文法は通っていてもどこか翻訳調の文章になるケースが少なくない。しかしQwen3.5-9Bの場合、日本語の語順や助詞の使い方が自然で、一般的な質問にも違和感のない文章で回答できる。

 例えば「ローカルLLMとは何かを初心者向けに説明して」というプロンプトを投げると、専門用語を避けながら概念を整理した回答を返してくれた。

 また、文字数指定や箇条書きなどのフォーマット指定にもきちんと従うため、文章生成や要約といった日常的な用途なら十分実用的な品質と言える。

 特に印象的なのは、日本語特有の文体の扱いだ。「100字以内で説明」「箇条書きで整理」「例を挙げて解説」といった条件を付けても破綻が少なく、指示をきちんと守った回答を返してくる。前節のベンチマークでも指示追従(IFEval)で高いスコアを記録していたが、実際のチャットでもその傾向ははっきり感じられる。

Vision(画像理解)

 次に画像理解能力を確認してみよう。Qwen3.5-9Bはテキストだけでなく画像も入力として扱うことができ、内容の説明や状況の把握が可能だ。ローカルLLMでは画像入力に対応していないモデルも多いが、本モデルは日常用途でも十分使えるレベルに達している。

 例えば風景写真を入力して、写っている内容や雰囲気を説明するよう指示すると、被写体や状況を整理しながら自然な日本語で説明を返してくれる。

 単なる物体認識にとどまらず、「どのような場面か」「どのような用途の環境か」といった文脈レベルの理解も行えるため、構成要素の整理や用途の推測を含めた説明が可能だ。

カテゴリートップへ

この連載の記事
ピックアップ