メルマガはこちらから

PAGE
TOP

HEROZ、NVIDIA H100 搭載サーバーの導入を決定 ~強固なAI開発環境の構築で、新プロダクト『HEROZ ASK』シリーズ等のサービス提供体制を強化~

PR TIMES

HEROZ株式会社

 HEROZ株式会社(以下、HEROZ)は、新たにNVIDIA (R) H100 80GBを搭載したサーバー(ジーデップ・アドバンス社製 GSV-SMC4U8G-Hモデル、以下、H100搭載サーバー)を導入します。今回採用されたNVIDIA(R) H100 Tensor コア GPUは、前世代のNVIDIA (R) A100と比較して、大規模言語モデルのAI学習を最大9倍高速化し、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。さらに、H100の複合的な技術革新により、大規模な言語モデルが前世代と比較してAI推論を最大30 倍も高速化することが可能です。
 これにより、LLM(注1)を活用した新プロダクト『HEROZ ASK』シリーズのさらなる拡大を目指します。

1.導入経緯
 昨今、LLM等の各種モデルの大型化に伴い、独自に大型モデルの学習やチューニングを行うためには、最新のGPUが必要です。HEROZは、LLM等においても独自にチューニングしたモデルを提供していくため、新たにH100搭載サーバーを導入することになりました。

 2018年11月    GPU(NVIDIA V100×128基)導入 
 2020年2月      CPU(Supermicro ブレードサーバー×20ノード)導入
 2020年11月    CPU(Supermicro ブレードサーバー×80ノード)導入
 2021年4月      GPU(NVIDIA A100×72基)導入
 2023年12月予定  GPU(NVIDIA H100×8基)導入


2.今後
 新たにH100搭載サーバーを導入することにより、最新GPUによる高速な学習が可能になります。また、1枚当たり80GBの大容量メモリにより、大規模モデルの効率的な学習を得られる効果が期待できます。


3.エンドースメント
 今回のプレスリリースにあたり、株式会社ジーデップ・アドバンス様よりエンドースメントをいただいております。

 HEROZ株式会社様において、弊社製NVIDIA(R)H100搭載サーバーを採用頂きましたことを大変嬉しく光栄に思います。
 最新のNVIDIA H100は専用の Transformer Engineを搭載しており、前世代に比較し最大約30倍ほどのLLMの高速化が期待できます。HEROZ様の高い技術力と最新のNVIDIA H100 GPUの組み合わせは、今後生成AIやマルチモーダルAIなど、より高性能なAIソリューションの開発に大きく寄与できるものと確信しております。
株式会社ジーデップ・アドバンス
代表取締役社長CEO 飯野匡道


【注釈】
注1: LLM = Large Language Model(大規模言語モデル)
※社名であるHEROZ及びHEROZのロゴマークは、当社の登録商標です。
※その他すべての商標は、各々の所有者の商標または登録商標です。

【HEROZ ASKについて】
 いつでも何でも悩んだときに聞くこと(ASK)ができる、あらゆる質問に答えるAI駆動のSaaSプロダクトです。Always Seek Knowledgeという意味が込められており、蓄積された知見をいつでも探すことができます。これまで十分に活用されてこなかった暗黙知を有効に利用し、企業および産業のAIトランスフォーメーションを促進します。

【HEROZ株式会社について】
HEROZは、今後も独自AIを軸にディープラーニング(深層学習)等の機械学習の研究開発やビジネスに実戦的な応用を続け、AI革命を起こし、未来を創っていきます。
https://heroz.co.jp/