このページの本文へ

リコー、GPT-5並みの日本語LLM 金融業向けに提供へ

2025年10月10日 16時15分更新

文● G. Raymond 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 リコーが10月10日、700億パラメータ規模の日本語大規模言語モデルを発表した。推論性能を強化し、OpenAIの「GPT-5」と同等レベルの性能を実現した。オンプレミス環境でモデルを提供し、特に金融業など、業種別の業務支援に活用する方針だ。

 「金融業務特化型LLM」では、有価証券報告書などの公開データを基に、金融業界特有の専門知識を追加学習させた上、多段推論能力(CoT)を持たせた。これにより、融資稟議業務などで必要となる複雑な分析や判断を高精度でこなせるという。

 同社による検証では、日本語の多様なタスクを測る「ELYZA-tasks-100」や「Japanese MT-Bench」、金融分野の専門ベンチマーク「japanese-lm-fin-harness」などで、OpenAIの「GPT-5」や、Alibaba「Qwen3」と同等のスコアを記録したという。

 ベースモデルは、メタの「Llama-3.3-70B-Instruct」を日本語向けに強化した「Llama-3.3-Swallow-70B」。リコーはモデルの重みを数学的に組み合わせる「モデルマージ」技術で性能を高めており、この技術を使ったGPT-4o同等モデルを4月に発表していた。

 

■関連サイト

カテゴリートップへ

ピックアップ