ASCII倶楽部

このページの本文へ

小島寛明の「規制とテクノロジー」 第378回

AIの軍事利用をめぐり、 Anthropic社と米政府の対立深まる イラン攻撃にも利用

2026年03月10日 07時00分更新

文● 小島寛明

  • この記事をはてなブックマークに追加
  • 本文印刷

 有力生成AIの1つ、「Claude」を開発・運営するAnthropic(アンスロピック)社と米政府が対立を深めている。

 CNNによると、トランプ政権は2026年2月27日、連邦政府機関、軍の業務を受注している事業者に対して、アンスロピック社との取引を停止するよう命じた。米政府は、同社を「安全保障に対するサプライチェーン上のリスク」に指定し、同社に通知したという。同社が、国防総省や米軍による無制限の人工知能技術の利用を拒否したことを受けた措置とみられている。

 一方、米ウェブメディアAxiosは3月1日、2月28日に始まった米軍とイスラエル軍によるイランへの攻撃で、Claudeが使用されたと報じている。3月4日のワシントン・ポストによれば、米軍は約1000件の攻撃目標を生成し、攻撃の目標とされた地点のGPSの座標を特定するといった用途にClaudeを使用したという。パランティア社が提供・開発を担うMaven Smart Systemに、AnthropicのClaudeが組み込まれて使われたと報じたメディアもある。

 一方、米政府がアンスロピック社との取引を禁止してから約4時間半後、ChatGPTを提供するOpenAI社のサム・アルトマンCEOは、同社のAIの利用について国防総省と合意に達したと発表している。

Claudeを「自律攻撃と大規模監視には使用しない」

 米政府とアンスロピック社の対立は、2025年夏ごろにさかのぼる。2月27日のCNNの報道などによると、同社は同年7月、国防総省と2億ドル相当の契約を締結していたが、同省に対して2つの制約を設けていた。その制約とは、同社の生成AIを、自律的に攻撃を実行する兵器には使用しない。そして、米国市民に対する大規模監視には使用しないというものだ。

 しかしトランプ政権は、アンスロピック社に対して、国防総省が制約なしに生成AIを利用できるよう契約を変更するよう求めた。同社はこれに応じず、政府から「サプライチェーン上のリスク」に指定されるに至った。2月26日の米CBSニュースによれば、同社は国防総省に対して、攻撃目標の選定についても、人間の関与なしに決定しないよう複数回申し入れていたとされる。

アモデイCEO「生成AIは軍事利用に適さない」

 アンスロピック社のダリオ・アモデイCEOは、複数のメディアに出演し、米政府との対立の経緯や同社の考え方について説明している。アモデイ氏が英エコノミスト誌の編集長のインタビューを受けている動画が、YouTubeで閲覧できる。

 まず自律型の兵器には使用しないという制約だが、これについてアモデイ氏は「私たちは、特定の使われ方をした場合に安全であるようにこれらのシステムを作ったわけではありません。AIはこの用途には適していないのです」と述べている。

 つまり、現在のAIは自律的に攻撃を実行できるほど、軍事利用に最適化されていないと説明している。米メディアの報道などを踏まえると、アンスロピック社は、攻撃目標を自律的に決定したとしても、誤った対象を攻撃してしまう可能性が残されている以上、攻撃目標の決定には人間の関与が必要だと主張しているのだろう。

 さらに、アモデイ氏は、エコノミストのインタビューで次のように述べている。

 「私は軍事政策や政府の政策について、どちらの立場からも意見を表明しているわけではありません。(中略)特定の政権についての話でも、特定の省庁についての話でも、特定の軍事作戦についての話でもありません。(中略)今後のこと、つまりこの技術の用途とガバナンスについてどう考えるべきかという問題なのです」

OpenAIとの合意にも軍事と監視に制約

カテゴリートップへ

この連載の記事

ASCII倶楽部の新着記事

会員専用動画の紹介も!