このページの本文へ

前へ 1 2 次へ

マルチエージェントからフィジカルAI、ジオパトリエーションまで

混沌の2026年、企業が押さえるべき「先進テクノロジー10選」 ガートナーが解説

2025年10月29日 17時00分更新

文● 福澤陽介/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

シンセシストにおけるテクノロジートレンド

 続いては、ビジネスの発展に貢献するシンセシストにおけるテクノロジートレンドを紹介する。

 4つ目は、「ドメイン特化言語モデル(Domain-Specific Language Models)」だ。特定の業界や機能、プロセスに特化したLLMであり、安定したアウトプットを確保するために用いられる。「なんでも学習して、なんでもできるジェネリックなLLMは、個人の手元で使う分には便利だが、ビジネスに適用するには成熟度が足りない」と池田氏。

 ガートナーでは、2028年までに、企業が利用するLLMの半数がドメイン特化型になると予測しているが、「ジェネリックなLLMを完全否定するわけではない。専門的なAIと切磋琢磨しながら両者が発展していき、最終的には目的によって使い分けるようになる」(池田氏)という。

 5つ目は、「マルチエージェント・システム(Multiagent Systems)」。昨年のトレンドで選出された「エージェント型AI」の発展形であり、上記のドメイン特化言語モデルで専門的なエージェントを沢山つくり、目的に応じて協調させて、安定したアウトプットを生み出すためのシステムだ。

 現状は、シングルプラットフォームで、単一ベンダーのエージェントが利用され始めているが、今後はクロスプラットフォームで、様々なベンダーのエージェントが利用されていくという。「さらにそれらのエージェントがインターネット上を徘徊しだすと、新しい経済圏が生まれる期待感がある」(池田氏)

 6つ目は、「フィジカルAI(Physical AI)」である。現実世界のモノやシステムがAIのインテリジェンスを持つ技術であり、ロボットやドローン、車など、あらゆるデバイスが知性を有して、周辺環境の変化を察知しながら、自律的に動くという世界が近づいている。

 「AIが生み出す予測や判断、アイデアなどを実世界に反映するには、誰かが仲介しなければならない。それを人間が担うと、AIの奴隷となりかねない」と池田氏。また、フィジカルAIではものづくりが重要であるが、前提としてAIのインテリジェンスの作りこみが問われ、これが日本企業にとってのチャレンジになるという。

ヴァンガードにおけるテクノロジートレンド

 最後は、テクノロジーをビジネスに実装するヴァンガードにおけるテクノロジートレンドだ。

 7つ目は、「先制的サイバーセキュリティ(Preemptive Cybersecurity)」だ。これは、問題が発生する前に、それを回避するためのテクノロジーだ。「これからデジタルが進化し、AIのような複雑なシステムが増えてくると、物事が起こってから対処するというスピード感ではリスク回避に間に合わない」と池田氏。

 加えて、「サイバー被害が深刻化する今の日本をみると、AIエージェントの世界に突入できるかという重要な局面にある」と強調した。

 8つ目は、「デジタル属性(Digital Provenance)」だ。データや資産の出所や所有者、完全性などを検証するための技術である。現状でも、SBOM(ソフトウェア部品省)やDRM(デジタル著作権管理)やデジタル・ウォーターマークなどの仕組みがあるが、AIが生成するコンテンツの適用が広がるにつれて、その重要性は増してくるという。

 9つ目は、「ジオパトリエーション(Geopatriation)」。クラウド上のデータや処理をオンプレミスに戻すという「リパトリエーション」の造語であり、ソブリン・クラウドや地域のプロバイダー、自社データセンターなどを利用して、適切な場所で適切な処理をするための動きである。「インターネットはフラットに浸透しつづけてきたが、テクノロジーの有するインパクトは大きくなりすぎて、そのまま放置できなくなっている。さらに、GDPRをはじめ政治的な背景もあり、色々な制限が生じるようになってきた」(池田氏)

 一方で、池田氏は、「これは本質的なゴールではなく、すべてのデジタルがアライン(同調)してしまうと、昔に戻ってしまう。今後新しい経済圏をつくる意味でも、ジオパトリエーションが重要になってくる」と補足した。

 最後は、「AIセキュリティ・プラットフォーム(AI Security Platforms)」だ。AI特有のリスクから保護するためのセキュリティであり、プロンプトインジェクションや情報漏えい、不適切な出力、AIサービス自体への攻撃など、様々なリスクに対するセキュリティ対策が既に進んでいる。

 池田氏が“今後の分かりやすいリスク”として挙げたのは、「AIエージェントの真正性」だ。エージェントを本物か偽物か判断するのは「意外と難しい問題」だという。池田氏は、こうしたリスクを乗り越えなければ、「さらなるAIの普及が望めない局面にきている」と指摘した。

■関連サイト

前へ 1 2 次へ

カテゴリートップへ

アクセスランキング

集計期間:
2025年11月29日~2025年12月05日
  • 角川アスキー総合研究所