このページの本文へ

深層学習にゆらぎを導入、敵対的攻撃に強いAIを構築=東大

2023年09月21日 07時54分更新

文● MIT Technology Review Japan

  • この記事をはてなブックマークに追加
  • 本文印刷

東京大学の研究チームは、深層学習を実行するニューラルネットワークに脳の神経細胞を模したゆらぎを導入することで、同ニューラルネットワークが持つ脆弱性の一部が軽減できることを明らかにした。

東京大学の研究チームは、深層学習を実行するニューラルネットワークに脳の神経細胞を模したゆらぎを導入することで、同ニューラルネットワークが持つ脆弱性の一部が軽減できることを明らかにした。 深層ニューラルネットワークは、敵対的攻撃と呼ばれる悪意のある攻撃によって騙されてしまうことが知られている。例えば、敵対的攻撃の手法で生成された「止まれ」の道路標識は、人間が見ると明らかに「止まれ」の標識であっても、人工知能(AI)は正しく認識できない場合がある。こうした脆弱性は、AIを社会実装する際に大きな障壁となる。 本研究チームはまず、敵対的攻撃を実行する新しい手法を考案し、敵対的サンプルの画像を生成。その後、深層ニューラルネットワークの入力層、隠れ層の2通りの箇所にそれぞれゆらぎを導入し、敵対的サンプルが正しいカテゴリーに分類されるか、もしくは敵対的サンプルと同じく誤って分類されるかどうかを調べた。 その結果、入力層にゆらぎを導入した時よりも、後段の隠れ層にゆらぎを導入した時の方がはるかに、敵対的サンプルが正しいカテゴリーに分類される割合が増えることが判明。入力層ではなく隠れ層にゆらぎを導入することで、今回の敵対的攻撃に対する脆弱性を軽減できることがわかった。 同チームによると、この方法を用いることで、人間などの動物の振る舞いにより近いAIが作成できる可能性が高くなるという。研究論文は、ニューラル・ネットワーク(Neural Networks)誌オンライン版に、2023年9月15日に掲載された

(中條)

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ