このページの本文へ

完全自動運転の実現へ、チューリングが開発基盤にGMO GPUクラウドを選んだ理由

2026年05月14日 10時00分更新

文● 柳谷智宣 編集●ASCII

提供: GMOインターネット

  • この記事をはてなブックマークに追加
  • 本文印刷

チューリングの自動運転車はすでに多くの公道走行テストを行い、データを収集し続けている

 完全自動運転の実現は、2020年代後半のAI開発における最大級のテーマとなっており、そんな中、存在感を増しているのがチューリングだ。チューリングは2030年代前半に完全自動運転の実現を目指しており、その鍵となるのが、人間のように周囲の状況を読み取り、判断できる自動運転AIの開発だ。

 自動運転の基盤モデルを開発するには、膨大な走行データを扱い、視覚・言語・行動を統合して学習するための大規模なGPU計算資源が欠かせない。同社は2025年、GMOインターネットの「GMO GPUクラウド」を開発基盤のひとつとして本格的に活用し始めた。さらに現在は、NVIDIA HGX B300を含む最新世代GPU環境も活用しながら、大規模なマルチモーダル学習を進めている。

 今回は、チューリング 執行役員兼CTOの山口祐氏に、国内外の選択肢を比較したうえでGMO GPUクラウドを選んだ背景と、導入後の手応えを聞いた。

完全自動運転を支える基盤モデル開発の全体像

 チューリングが目指しているのは、人間の運転操作を一切必要としない完全自動運転だ。既存の運転支援や限定エリアの自律走行とは求められる水準が大きく異なる。交通ルールが普段どおり守られる場面なら現行技術の延長線上でも対応できる可能性がある。しかし、現実の道路には、想定外の状況が溢れている。

「例えば道路工事をしていて片側交互通行になっていて、交通誘導員の人が行け・止まれを指示してくれます。このような、通常の交通ルールの範疇にはないところを読み取って車を運転しなければなりません。交通の文脈を理解しながら運転する必要があり、だからこそ大規模モデル(LLM)を車に積まないと対応できない、というのが我々の考え方です」(山口氏)

チューリング CTOの山口祐氏

 チューリングはこの発想のもと、複数のAI技術を並行開発している。視覚情報と言語を扱うマルチモーダルモデル「Heron(ヘロン)」、動画生成で培われた空間と時間の理解を応用する世界モデル「Terra(テラ)」、そして走行データに言語説明と運転操作を紐づけた「CoVLA(コブラ)」データセットなどだ。

「視覚と言語にアクションを加えてVLAと呼びますが、このアクション部分を補完するのがCoVLAデータセットです。車載カメラの映像や速度・加速度の記録に言語的な説明を付け、その場面で車をどうコントロールしたかを紐づける。これをマルチモーダルモデルに学習させることで、運転できる基盤モデルを作ろうとしています」(山口氏)

 LLMや動画生成モデルでエコシステム化が進むAI技術を、自動運転にそのまま取り込む。同社の戦略はこの一点に集約される。

完全自動運転を目指すチューリング

年2.5倍で拡大する計算需要とB300がもたらす余力

 賢いAIを作るうえで、GPUは最大の制約であり、同時に最大の武器でもある。チューリングのGPU使用量は年2.5倍のペースで伸びてきたという。半導体性能の自然な向上を待つだけでは追いつかない速度だ。蓄積が進む走行データ、それを使いこなすAIエンジニアの増員、モデル開発手法の成熟。この3つが同時に進むことで、計算需要は急速に膨らんでいる。

「日本のスーパーコンピューター『富岳』の半精度演算がおおむね2エクサフロップスですが、我々が現在動かしている計算リソースはすでに1エクサフロップスを超えています。富岳の50〜60パーセント程度の処理能力を自社で占有して使っている状態ですね。しかもこの要求は毎年どんどん高まっていて、開発技術の向上に加えて走行データ自体も増え続けているので、必要なGPU量もそれに比例して増えています」(山口氏)

 もちろん、スーパーコンピューターとGPUクラスタでは演算精度や理論値、実効性能の前提が異なるため単純比較はできない。それでも、同社の開発がすでに国家規模の計算基盤と比較される水準に近づいていることは、必要とされる計算量の大きさを物語っている。

チューリングは1年で約2.5倍のペースで計算性能を拡張し続けている

 この拡張余地を押し広げる存在として注目されるのが、NVIDIA HGX B300だ。GPU単体の演算性能だけでなく、GPUメモリ容量が大きく伸びたのがポイント。従来広く使われてきたNVIDIA H100の80GBに対し、B300は1基あたり288GBのメモリを備える。動画データを扱う自動運転の学習では、1度にGPUへ流し込めるデータ量が学習効率を左右するため、メモリ容量の拡大は大きな意味を持つ。

「B300は大きな搭載メモリを活かし、VLAなどの分散学習に主に活用しています。車載コンピューター向けの新しいSoCであるThorとアーキテクチャが共通していることから、将来的な実装を見据え、低精度フォーマットでの学習・推論の検証にも積極的に利用しています。一方でH200は、安定した性能と実績を活かし、既存の車載軽量モデルの学習・ファインチューニングや検証用途など、比較的成熟したワークロードに適用しています。このように、H200は信頼性と汎用性を重視した運用、B300は大規模化・新技術検証といった先行的な取り組みという形で役割分担を行い、機能ごとに最適化した使い分けを進めています」(山口氏)

 車載コンピューターは発熱や振動、電磁波にさらされる過酷な環境下にあり、データセンター向けGPUと比べて性能は1桁落ちる。B300での低精度モデル開発は、研究用クラスターと実車の間に橋を架ける意味を持っているのだ。

チューリングが開発する自動運転車に搭載している実験機

国内外の選択肢を比較して浮かび上がった決め手

 チューリングは自社のオンプレミスでもGPUクラスターを運用し、複数のクラウドを併用してきた。そこから導き出された評価軸がストレージとネットワーク、可用性、ジョブスケジューラーの4点だ。

 動画データを大量に扱う学習では、GPU単体の性能より周辺システムがボトルネックになりやすい。ストレージの読み出しが遅ければGPUが遊んでしまうし、ノード間通信が細ければ分散学習が詰まる。複数のエンジニアが小さな実験を並列で回す同社のスタイルでは、ジョブスケジューラーの出来も生産性を左右するというわけだ。比較対象として意識していたのは、産業技術総合研究所が提供するAI計算基盤「ABCI」だった。

「ストレージ、ネットワーク、可用性、ジョブスケジューラーの観点をきちんと満たす事業者は、国内外を見ても実はほとんどなかったんです。参考にしていたのは産総研のABCIで、そこに近い水準のGPUサービスを提供している会社が見つからず、自分たちで作るしかないかと思っていたほどでした」(山口氏)

 そこへ候補として浮上したのがGMO GPUクラウドだった。設計思想と実測性能を精査した結果、同社が求める要件とほぼ完全に一致していた。ABCI由来の運用知見が色濃く反映されていたためだ。

「GMOさんがGPUクラウド事業を始めるにあたって、ABCIのGPUクラスターを提供しているAIST Solutionsの協力を得ながらクラスターを設計したと聞いています。設計思想も性能もハイエンドで、我々のGPU活用ワークフローに非常にマッチしていました。国内外で要件を満たせる事業者がほとんどなかった中で、唯一と言っていい存在でした」(山口氏)

 海外にはGPU専業のネオクラウドと呼ばれる事業者も存在するが、話を聞いてみても要件を満たせる会社は限られていたという。国産にこだわったわけではないが、技術要件と運用体制の両面で、結果的に国内の選択肢がフィットした格好だ。

長期安定稼働と機動的なサポートが開発速度を押し上げる

 本格稼働からまもなく1年。現在、GMO GPUクラウド上にチューリングとして最大規模の計算環境を構築し、自社分と合わせて大規模学習を走らせている。この間、インフラ起因のトラブルはほぼ発生していないという。

「あのデータも欲しい、このデータも欲しいと、ある意味探索的に自動運転AIを開発していくのが我々のスタイルです。小さな学習実験を小刻みに並列で回すので、データのバリエーションも多く必要になる。GMOさんはペタバイトクラスで、しかも超高速のストレージを提供してくれていて、学習用データをGPUから即座に取り出せるので開発効率は明確に高まっています」(山口氏)

 もうひとつ効いているのがサポート体制だ。一般的なGPUクラウドでは、サーバーの不調対応が1週間単位で待たされることも珍しくない。GPUが使えない時間は、そのまま開発の停滞につながってしまう。GMOはこの点が速い、と山口氏は評価する。故障機は即座に交換され、ユーザー側の運用要望にも柔軟に応じている。

「一般的なクラウド事業者では、サポートを密に、しかも素早く対応してもらうのは難しいのが実情です。しかし、GMO GPUクラウドさんは連絡すればスピーディに対応してもらえるので、使えるGPUが減るような事態は基本的に起きません。ログインノードのスペック調整のような使い勝手のリクエストも柔軟に対応いただいていて、現場の手触りは我々のオンプレ環境にかなり近いです」(山口氏)

開発の最前線ではさまざまなトラブルが付き物だが、GMO GPUクラウドは密なサポートで迅速対応する

2030年代前半の社会実装を見据えた国産基盤との協業

 チューリングが掲げる目標は明快だ。2030年代前半に完全自動運転を確立し、普通の人が買える車へ搭載すること。その達成には、計算資源を安定して供給し続けるパートナーの存在が欠かせない。GPUの需要が年単位で倍々に膨らむ中、確保競争はOpenAI、Anthropic、xAI、テスラといった世界のプレイヤーが発電所の新設まで視野に入れる水準にまで達している。

「GPUをたくさん揃えられるかどうかが、開発力につながります。これは我々の将来にとっても、グローバルな競争にとっても決定的に重要な観点です。だからこそ、GPUを確実に安定して提供してくれる事業者さんとは、良い関係を築いていくことが重要です。特にGMOインターネットさんとは事業的にも提携関係にあるので、今後もこの関係性をより深めていければと思っています」(山口氏)

山口氏は使えるGPUの量が開発力となる、と語る

 GMO GPUクラウドは、マネージドSlurm環境に、NVIDIA Spectrum-X、DDNの高速分散ストレージなどを組み合わせ、大規模AI開発向けのGPUクラスターとして提供されている。同サービスは米SemiAnalysisのGPUクラウド国際評価「ClusterMAX 2.0」でSilver評価を獲得。国内GPUクラウド事業者として初の評価獲得となり、SlurmなどのHPC技術、サポート体制、導入事例なども評価された。

 速いGPUを並べるだけでは、もはや差はつかない。重要なのは、その性能を安定して引き出し、開発者が日々の実験を止めずに回し続けられる基盤になっているかどうかだ。完全自動運転という長いマラソンに伴走する国産GPUクラウドとして、GMO GPUクラウドの役割はこれからさらに大きくなっていく。

「2030年代前半に完全自動運転を確立して、普通の人が買える車に搭載していく。これが我々のミッションです。実現できれば、自分で購入して運転するものだった車が、まったく違う次元の移動手段に変わっていく。今は難しい子どもひとりでの乗車も簡単にできるようになり、あらゆる人に移動手段としての自由な選択肢が開かれる。そこを目指して全力で開発を進めていきます」と山口氏は語った。

 賢いAIを作り、それを車に積み、社会に届ける。その長い道のりにおいて、計算基盤の選択はスタートアップの競争力そのものを左右する。チューリングがGMO GPUクラウドを選んだことは、国内の自動運転開発とGPUクラウド事業が、同じ未来を見据えて接続し始めたことを示している。2030年代前半、日本発のAIが運転する車を街で見る日へ向けて、その歯車はすでに回り始めている。

2030年代前半、完全自動運転の実現を目指し、チューリングの挑戦は続く

カテゴリートップへ

本記事はアフィリエイトプログラムによる収益を得ている場合があります

アクセスランキング

  1. 1位

    スマホ

    ここまで便利なのか! 子どもの居場所を90秒間隔で教えてくれる、安心の見守りガジェットがすごいぞ

  2. 2位

    Team Leaders

    Power AutomateでSharePoint APIを使う ― SPOリストを自動作成するフローを作ろう

  3. 3位

    クラウド

    「すでに開発コードの4分の3はAI生成」 Google Cloud CEO、エージェント時代の戦略を語る

  4. 4位

    エンタープライズ

    基盤も古いし、コードも酷い! そんなクエストにGitHub Copilotで試行錯誤しまくった「みんな」こそ最高

  5. 5位

    ビジネス・開発

    いますぐ捨てたいITサービスは? AI推しにそろそろ飽きてません? 情シスさんのホンネを「ゆるっとナイト」で聞いた

  6. 6位

    ITトピック

    「AI導入で人員を減らしても収益は増えない」その理由/「専任情シス不在」中小企業の3社に2社/ユーザーアカウント流出が加速、ほか

  7. 7位

    ソフトウェア・仮想化

    日本の自治体がみんな使っている「ManageEngine」 IT運用のすべての課題解決を目指す

  8. 8位

    sponsored

    “脱VPN”方針の大手エネルギー企業、だがZTNA移行の成功パターンが分からず… どうすればよい?

  9. 9位

    データセンター

    NTT、AIインフラ構想「AIOWN(AI×IOWN)」を発表 国内データセンター総容量は3倍超の「1ギガワット」へ

  10. 10位

    sponsored

    「なぜうちの会社が狙われるのか?」 ランサムウェア攻撃者の「目線」を探る

集計期間:
2026年05月07日~2026年05月13日
  • 角川アスキー総合研究所