このページの本文へ

「AI兵器の規制は核兵器よりも困難」キッシンジャー元米国務長官

2019年03月05日 14時55分更新

文● Will Knight

  • この記事をはてなブックマークに追加
  • 本文印刷

米国の外交問題について物議を醸す重鎮、ヘンリー・キッシンジャー元米国国務長官は、人工知能(AI)兵器の開発規制は核兵器よりもずっと困難だと考えている。

2月28日にマサチューセッツ工科大学(MIT)で開催されたイベントの講演でキッシンジャー元国務長官は、AIにおける新しい発展があらゆる種類の危険がもたらす可能性があると警告した。さらに、AI兵器はテクノロジーの開発が秘密裏に進むため、核兵器よりも規制が困難となると懸念している。「AI兵器について言えば、敵の無知が自国の最大の武器です。まして(AIテクノロジーの)共有などはもっと困難です」。

AI軍拡競争について懸念しているのはキッシンジャー元長官だけではない。相当な数の学者や産業界の研究者、テクノロジーの指導的立場の人々が自律兵器の使用禁止キャンペーンを支援している。

しかし、この問題は非常に難しい。安全保障問題の研究者であるポール・シャレーは最近出版した著書『Army of None』(2018年刊、未邦訳)で「この数十年間で、自律機能が兵器システムへ忍び込みつつあります」と書いている。 自律システムの応用に関して線引きをするのは必ずしも容易なことではなく、AIテクノロジーによって兵器をさらに信頼性の高いものにできるのだから魅力的なわけだ。

キッシンジャー元国務長官はこのところ何やら反AI論者のようだ。アルファ碁(AlphaGo)のことを知ったキッシンジャー元国務長官は、アトランティック誌に『How the Enlightenment Ends』というタイトルで、AIは人間の知識の本質を変え、究極的には人類に害をもたらす可能性があると警告している。

「AI は人間よりも早く確実にある種の能力をマスターすることで、それをデータに変え、やがて人間の能力や人間という状態そのものを衰えさせる可能性があります」とキッシンジャー元国務長官は書いている。「哲学的にも知的にも、すべてにおいて、人間社会はまだAIの台頭に対する準備ができてはいないのです」。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ