このページの本文へ

前へ 1 2 次へ

AI insideがAI活用のさらなる“二極化”を予測

AIエージェントが実運用に到達しない“2つの理由” 2026年は「業務完遂AI」の年になるか

2026年01月20日 08時00分更新

文● 福澤陽介/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 2025年、AI技術は進展したものの、企業の実運用は依然として本格化しなかった。AI insideの渡久地択氏は、その背景にあった「時間」と「責任」の問題が解消されることで、2026年は「業務完遂AI」の年になると予測する。

 AI-OCR「DX Suite」などを手掛けるAI insideは、1月15日、2026年のAIトレンド予測に関する説明会を開催。同社の代表取締役社長 CEOである渡久地氏は、AIのトレンドは「何ができるか」から「運用できるか」にシフトしていくと強調した。

AI inside 代表取締役社長 CEO 渡久地択氏

AIエージェントが実運用に到達しない“2つの理由”

 まず渡久地氏は、「AIエージェント元年」と呼ばれた2025年を振り返った。チャットボットからエージェントに進化し、ツール連携やワークフロー化が普及して、AIに業務を「任せられる」という期待が先行した。ただ、実運用は本格化せず、「AIエージェントの入口に立った年だった」と振り返る。

 実際にAIモデルのできることは、急速に拡大している。APIやブラウザ、OSの操作が進展して、OpenAIのo1を代表するような「長く考える」モデルも登場した。しかし、この進化したAIモデルを業務に落とし込むとなると途端にハードルが上り、多くのAIプロジェクトがPoCどまりとなり、実運用にまで到達しなかった。

技術は進んだが、依然実運用に到達しなかった2025年

 なぜ、AIを業務に組み込めないのか。渡久地氏は、その背景に「時間」と「責任」という2つの問題を挙げる。

 最初のハードルとなるのが「長いタスク」の問題である。単発タスクでは一定の成果が得られるが、長いワークフローになると“誤りが累積して”破綻してしまう。

 次に直面するのが「責任分界の曖昧さ」という問題だ。タスクが長くなるほど責任主体を特定しづらくなり、説明責任が果たせなくなる。

AIの業務適用で直面する「時間」と「責任」の問題

AIの競争軸はモデル性能から“安心して任せられる運用”に

 渡久地氏は、2026年はこれらの「時間」「責任」の問題が解決され、「業務完遂AI」への入口の年になるという。

 その根拠のひとつが、AIの「働ける時間」が指数関数的に伸びていることだ。AIモデルが50%の確率で、人のプロフェッショナルと同等に完遂できるタスクの長さを表す「METR(人間換算タスク)」をみると、2019年から2024年で約7か月ごとに倍増し、2024年以降は4か月ごとで倍増している状況だ。例えば、数学の領域などでは、人が1時間以上かかるタスク(試験)を完了できるモデルが登場している。「このトレンドが続くと、後1、2年で“日~週単位”のタスクをAIがこなせるようになる」(渡久地氏)

METR(人間換算タスク)の指標は2024年以降急増

 また、AnthropicのClaudeでは、Opus 3.5で7時間連続のコーディングが、Opus 4で24時間連続のゲームプレイ(ポケモン)が可能になり、さらにSonnet 4.5では、30時間以上の自律的なコーディングを実現するなど、自律的に働く単位がタスクからプロセスへと拡大しつつある。

 なぜ、AIが長く働けるようになったかというと、「思考を段階化して、計画・実行・検証という繰り返しができるようになった」(渡久地氏)からだ。長時間タスクは、このサイクルがないと成立しない。

 さらに、このサイクルが基本的な動作になると、AIの性能が問われなくなる。渡久地氏は、これからのAIの競争軸は、モデル性能から「安心して任せられる運用」にシフトしていくと予測する。つまりAIの正確さ(accuracy)ではなく、管理・最適化(orchestration)や制御(control)、信頼性(reliable agent)といった運用領域(Ops)が主戦場になっていく。

競争軸はモデル性能から「安心して任せられる運用」に

 そして、長時間の作業をAIに任せるようになると、前述の「責任」問題が避けて通れなくなる。これに対して、AI insideが今後推進していくのが、責任の“持ち方”を設計することだ。具体的には人が予め、AI活用で何を目指して、KPIや優先順位は何かという「目的」、AIにどこまで任せて、停止条件や例外は何かという「委任範囲」、そして、誤りが発生した際にどうするかという「是正」を定めていくという。

 こうすることで、誤りが発生した責任主体を特定しやすくなり、AIが目的や委任範囲内で動けるようになる。「2026年はこうした責任の設計が進む年になる」と渡久地氏。

AI導入の核心は責任の「持ち方」を予め設計すること

前へ 1 2 次へ

カテゴリートップへ

本記事はアフィリエイトプログラムによる収益を得ている場合があります

アクセスランキング

  1. 1位

    TECH

    訓練だとわかっていても「緊張で脇汗をかいた」 LINEヤフー、初のランサムウェア訓練からの学び

  2. 2位

    ITトピック

    若手が言わない“本音の退職理由”上位は/「データ停止は景気後退よりも企業の脅威」6割/クライアントに告げずAI活用するフリーランス、ほか

  3. 3位

    ビジネス・開発

    最悪のシナリオは「フィジカルAI」による基幹産業の衰退 日本の勝ち筋は、“同期技術”と“ドメイン知識”

  4. 4位

    Team Leaders

    ファイル名が命名規則に合っているかの自動チェック、Power Automateのフローで実現しよう

  5. 5位

    TECH

    糖尿病超早期を採血なしで検出、予防へ! 代謝や臓器のつながりに着目した予防法開発

  6. 6位

    データセンター

    液冷技術の最先端が集うイノベーションラボ「DRIL」、印西のデータセンターに現わる

  7. 7位

    ビジネス

    廃校がAIの心臓部に!? 地方の遊休施設を「AIデータセンター」に生まれ変わらせるハイレゾの挑戦がアツいぞ

  8. 8位

    TECH

    “GPUなし”ノートPCで動くLLMで、ローカルAIエージェントを自作する

  9. 9位

    Team Leaders

    バックオフィス業務もAIに“丸投げ” マネーフォワードが「Cowork」機能を2026年7月に投入へ

  10. 10位

    TECH

    合成ゴムが及ばない天然ゴムの高性能のメカニズムを、現象発見から100年後に解明

集計期間:
2026年04月09日~2026年04月15日
  • 角川アスキー総合研究所