このページの本文へ

学習データもすべて公開、GPT-3.5を超える日本語性能を達成

透明性が大切 NIIが“完全オープン”で世界最大級のLLMを一般公開

2024年12月25日 17時00分更新

文● 福澤陽介/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 国立情報学研究所 (NII) の大規模言語モデル研究開発センター(LLMC)は、2024年12月24日、約1720億パラメータのLLM「llm-jp-3-172b-instruct3」を一般公開した。「学習データまで含めすべてオープンなモデルとしては世界最大規模」としている。

●llm-jp-3-172b-instruct3(Hugging Faceにて公開)
https://huggingface.co/llm-jp/llm-jp-3-172b-instruct3

 llm-jp-3-172b-instruct3は、約2.1兆トークンの学習データを用いてフルスクラッチで学習されており、学習データまで含めすべてオープンなモデルとしては世界最大規模だという。日本語理解能力を測るベンチマーク「llm-jp-eval」などでは、OpenAIのGPT-3.5を超える日本語性能を達成している。

 計算資源としては、経済産業省・NEDOのGENIACプロジェクトの支援によるクラウド計算資源(グーグル・クラウド・ジャパン)を利用して、約0.4兆トークンまで事前学習。その後、文部科学省の補助金により調達したクラウド計算資源(さくらインターネット)を利用して、約2.1兆トークンまでの事前学習及びチューニングを実施している。

 事前学習には、WebアーカイブCommon Crawl(CC)から抽出・フィルタリングした日本語テキストや、国立国会図書館インターネット資料収集保存事業(WARP)で収集されたWebサイトを基にクロールしたデータ、日本語Wikipedia、KAKEN(科学研究費助成事業データベース)における各研究課題の概要テキストなどが用いられている。その他にも、英語や他言語、プログラムコードなどが学習に利用された。

カテゴリートップへ

アクセスランキング

  1. 1位

    データセンター

    首都圏のデータセンター枯渇、電力コストの高騰、エンジニア不足 課題から考える最新データセンター選び

  2. 2位

    ITトピック

    “VMwareショック”余波、IaaSベンダー撤退も/本音は「拒否したい」時間外の業務連絡/IT部門のデータメンテ疲れの声、ほか

  3. 3位

    デジタル

    なぜ大企業でkintoneの導入が増えているのか? DX推進と「脱・属人化」を実現するエンプラパートナーに聞いた

  4. 4位

    TECH

    【提言】「VPNの安全性」が通用しない時代 ZTNAへの困難な移行を経営層はサポートせよ

  5. 5位

    データセンター

    「NVIDIA Blackwell GPU」約1100基搭載のAIインフラが稼働 さくらインターネットが石狩DC内で

  6. 6位

    デジタル

    kintoneの大企業売上は間もなく3割に サイボウズはグローバルで“戦える”新サービスも開発中

  7. 7位

    TECH

    自律的に動けないメンバーを持つくらいなら、一人で全部やったほうが幸せに働ける「管理職の憂鬱」に関する調査

  8. 8位

    ビジネス

    行政DXを超え、デジタルで市民の力を引き出す“地域社会DX”へ 兵庫県豊岡市の挑戦

  9. 9位

    ITトピック

    生成AIなしでは仕事できない? 会社員7割が“AI依存”自覚/「年内にAIエージェントが成果生む」CEOの9割が確信、ほか

  10. 10位

    Team Leaders

    ランサムウェア攻撃になぜ強い? Boxが「コンテンツセキュリティ」と「AIリスク対策」を解説

集計期間:
2026年02月27日~2026年03月05日
  • 角川アスキー総合研究所