このページの本文へ

前へ 1 2 次へ

AI insideがAI活用のさらなる“二極化”を予測

AIエージェントが実運用に到達しない“2つの理由” 2026年は「業務完遂AI」の年になるか

2026年01月20日 08時00分更新

文● 福澤陽介/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 2025年、AI技術は進展したものの、企業の実運用は依然として本格化しなかった。AI insideの渡久地択氏は、その背景にあった「時間」と「責任」の問題が解消されることで、2026年は「業務完遂AI」の年になると予測する。

 AI-OCR「DX Suite」などを手掛けるAI insideは、1月15日、2026年のAIトレンド予測に関する説明会を開催。同社の代表取締役社長 CEOである渡久地氏は、AIのトレンドは「何ができるか」から「運用できるか」にシフトしていくと強調した。

AI inside 代表取締役社長 CEO 渡久地択氏

AIエージェントが実運用に到達しない“2つの理由”

 まず渡久地氏は、「AIエージェント元年」と呼ばれた2025年を振り返った。チャットボットからエージェントに進化し、ツール連携やワークフロー化が普及して、AIに業務を「任せられる」という期待が先行した。ただ、実運用は本格化せず、「AIエージェントの入口に立った年だった」と振り返る。

 実際にAIモデルのできることは、急速に拡大している。APIやブラウザ、OSの操作が進展して、OpenAIのo1を代表するような「長く考える」モデルも登場した。しかし、この進化したAIモデルを業務に落とし込むとなると途端にハードルが上り、多くのAIプロジェクトがPoCどまりとなり、実運用にまで到達しなかった。

技術は進んだが、依然実運用に到達しなかった2025年

 なぜ、AIを業務に組み込めないのか。渡久地氏は、その背景に「時間」と「責任」という2つの問題を挙げる。

 最初のハードルとなるのが「長いタスク」の問題である。単発タスクでは一定の成果が得られるが、長いワークフローになると“誤りが累積して”破綻してしまう。

 次に直面するのが「責任分界の曖昧さ」という問題だ。タスクが長くなるほど責任主体を特定しづらくなり、説明責任が果たせなくなる。

AIの業務適用で直面する「時間」と「責任」の問題

AIの競争軸はモデル性能から“安心して任せられる運用”に

 渡久地氏は、2026年はこれらの「時間」「責任」の問題が解決され、「業務完遂AI」への入口の年になるという。

 その根拠のひとつが、AIの「働ける時間」が指数関数的に伸びていることだ。AIモデルが50%の確率で、人のプロフェッショナルと同等に完遂できるタスクの長さを表す「METR(人間換算タスク)」をみると、2019年から2024年で約7か月ごとに倍増し、2024年以降は4か月ごとで倍増している状況だ。例えば、数学の領域などでは、人が1時間以上かかるタスク(試験)を完了できるモデルが登場している。「このトレンドが続くと、後1、2年で“日~週単位”のタスクをAIがこなせるようになる」(渡久地氏)

METR(人間換算タスク)の指標は2024年以降急増

 また、AnthropicのClaudeでは、Opus 3.5で7時間連続のコーディングが、Opus 4で24時間連続のゲームプレイ(ポケモン)が可能になり、さらにSonnet 4.5では、30時間以上の自律的なコーディングを実現するなど、自律的に働く単位がタスクからプロセスへと拡大しつつある。

 なぜ、AIが長く働けるようになったかというと、「思考を段階化して、計画・実行・検証という繰り返しができるようになった」(渡久地氏)からだ。長時間タスクは、このサイクルがないと成立しない。

 さらに、このサイクルが基本的な動作になると、AIの性能が問われなくなる。渡久地氏は、これからのAIの競争軸は、モデル性能から「安心して任せられる運用」にシフトしていくと予測する。つまりAIの正確さ(accuracy)ではなく、管理・最適化(orchestration)や制御(control)、信頼性(reliable agent)といった運用領域(Ops)が主戦場になっていく。

競争軸はモデル性能から「安心して任せられる運用」に

 そして、長時間の作業をAIに任せるようになると、前述の「責任」問題が避けて通れなくなる。これに対して、AI insideが今後推進していくのが、責任の“持ち方”を設計することだ。具体的には人が予め、AI活用で何を目指して、KPIや優先順位は何かという「目的」、AIにどこまで任せて、停止条件や例外は何かという「委任範囲」、そして、誤りが発生した際にどうするかという「是正」を定めていくという。

 こうすることで、誤りが発生した責任主体を特定しやすくなり、AIが目的や委任範囲内で動けるようになる。「2026年はこうした責任の設計が進む年になる」と渡久地氏。

AI導入の核心は責任の「持ち方」を予め設計すること

前へ 1 2 次へ

カテゴリートップへ

  • 角川アスキー総合研究所