
リコーが10月10日、700億パラメータ規模の日本語大規模言語モデルを発表した。推論性能を強化し、OpenAIの「GPT-5」と同等レベルの性能を実現した。オンプレミス環境でモデルを提供し、特に金融業など、業種別の業務支援に活用する方針だ。
「金融業務特化型LLM」では、有価証券報告書などの公開データを基に、金融業界特有の専門知識を追加学習させた上、多段推論能力(CoT)を持たせた。これにより、融資稟議業務などで必要となる複雑な分析や判断を高精度でこなせるという。
同社による検証では、日本語の多様なタスクを測る「ELYZA-tasks-100」や「Japanese MT-Bench」、金融分野の専門ベンチマーク「japanese-lm-fin-harness」などで、OpenAIの「GPT-5」や、Alibaba「Qwen3」と同等のスコアを記録したという。
ベースモデルは、メタの「Llama-3.3-70B-Instruct」を日本語向けに強化した「Llama-3.3-Swallow-70B」。リコーはモデルの重みを数学的に組み合わせる「モデルマージ」技術で性能を高めており、この技術を使ったGPT-4o同等モデルを4月に発表していた。






