HEROZ、NVIDIA H100 搭載サーバーの導入を決定 ~強固なAI開発環境の構築で、新プロダクト『HEROZ ASK』シリーズ等のサービス提供体制を強化~
HEROZ株式会社
HEROZ株式会社(以下、HEROZ)は、新たにNVIDIA (R) H100 80GBを搭載したサーバー(ジーデップ・アドバンス社製 GSV-SMC4U8G-Hモデル、以下、H100搭載サーバー)を導入します。今回採用されたNVIDIA(R) H100 Tensor コア GPUは、前世代のNVIDIA (R) A100と比較して、大規模言語モデルのAI学習を最大9倍高速化し、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。さらに、H100の複合的な技術革新により、大規模な言語モデルが前世代と比較してAI推論を最大30 倍も高速化することが可能です。
これにより、LLM(注1)を活用した新プロダクト『HEROZ ASK』シリーズのさらなる拡大を目指します。
1.導入経緯
昨今、LLM等の各種モデルの大型化に伴い、独自に大型モデルの学習やチューニングを行うためには、最新のGPUが必要です。HEROZは、LLM等においても独自にチューニングしたモデルを提供していくため、新たにH100搭載サーバーを導入することになりました。
2018年11月 GPU(NVIDIA V100×128基)導入
2020年2月 CPU(Supermicro ブレードサーバー×20ノード)導入
2020年11月 CPU(Supermicro ブレードサーバー×80ノード)導入
2021年4月 GPU(NVIDIA A100×72基)導入
2023年12月予定 GPU(NVIDIA H100×8基)導入
2.今後
新たにH100搭載サーバーを導入することにより、最新GPUによる高速な学習が可能になります。また、1枚当たり80GBの大容量メモリにより、大規模モデルの効率的な学習を得られる効果が期待できます。
3.エンドースメント
今回のプレスリリースにあたり、株式会社ジーデップ・アドバンス様よりエンドースメントをいただいております。
HEROZ株式会社様において、弊社製NVIDIA(R)H100搭載サーバーを採用頂きましたことを大変嬉しく光栄に思います。
最新のNVIDIA H100は専用の Transformer Engineを搭載しており、前世代に比較し最大約30倍ほどのLLMの高速化が期待できます。HEROZ様の高い技術力と最新のNVIDIA H100 GPUの組み合わせは、今後生成AIやマルチモーダルAIなど、より高性能なAIソリューションの開発に大きく寄与できるものと確信しております。
株式会社ジーデップ・アドバンス
代表取締役社長CEO 飯野匡道
【注釈】
注1: LLM = Large Language Model(大規模言語モデル)
※社名であるHEROZ及びHEROZのロゴマークは、当社の登録商標です。
※その他すべての商標は、各々の所有者の商標または登録商標です。
【HEROZ ASKについて】
いつでも何でも悩んだときに聞くこと(ASK)ができる、あらゆる質問に答えるAI駆動のSaaSプロダクトです。Always Seek Knowledgeという意味が込められており、蓄積された知見をいつでも探すことができます。これまで十分に活用されてこなかった暗黙知を有効に利用し、企業および産業のAIトランスフォーメーションを促進します。
【HEROZ株式会社について】
HEROZは、今後も独自AIを軸にディープラーニング(深層学習)等の機械学習の研究開発やビジネスに実戦的な応用を続け、AI革命を起こし、未来を創っていきます。
https://heroz.co.jp/