このページの本文へ

生成AIブームから1年、2024年はセキュリティにも注目を

2024年01月12日 06時56分更新

文● Melissa Heikkilä

  • この記事をはてなブックマークに追加
  • 本文印刷
Stephanie Arnett/MITTR | Midjourney (pug)

画像クレジット:Stephanie Arnett/MITTR | Midjourney (pug)

2024年はAIにとってどのような年になるだろうか。MITテクノロジーレビューのこれまでの記事などに基づいてまとめてみた。

この記事は米国版ニュースレターを一部再編集したものです。

2024年、AIの世界では何が起きるだろうか? AI企業には、生成AI(ジェネレーティブAI)が収益を上げられること、そしてシリコンバレーがAIの「キラーアプリ」を生み出せることを示さなければならないという、大きなプレッシャーがかかっている。このことは、あらゆる兆候から明らかだ。生成AIを最も後押ししている巨大テック企業は、プログラミングのスキルがなくても誰もが生成AIアプリのエンジニアになれるような、カスタム・チャットボットに大きく賭けている。事はすでに急速に動いている。オープンAIは、早ければ1月中旬にも「GPTアプリストア(GPT app store)」を立ち上げると報じられている。また、AIが生成した映像や、AIをさらに活用した選挙の偽情報、マルチタスクをこなすロボットなど、興味深い新展開も見られるだろう。本誌のウィル・ダグラス・ヘブン編集者と私は先日、2024年のAIに関する4つの予測を発表した。(記事全文はこちら

今年もまた、世界中でAI規制が大きく動く年になるだろう。 2023年には、欧州連合(EU)で世界初の包括的なAI法が可決され、米国では上院の公聴会と大統領令が公表され、中国ではレコメンド・アルゴリズムなどに関する具体的なルールが導入された。昨年は立法者たちがビジョンに合意した年であったとすると、2024年は政策が具体的な行動に移り始める年になるだろう。本誌のテイト・ライアン・モズリー編集者とヤン・ズェイ記者と一緒に、今年のAI規制で想定される動きについて記事を書いた。 (記事はこちら

生成AI革命が猛烈なスピードで展開されている一方で、早急に答えを出す必要がある未解決の大きな問題がまだ残っていると、ダグラス・ヘブン編集者は書いている。バイアス、著作権、AIを構築するための高いコストなどの問題だ。 (詳しくはこちら

加えて指摘したいのが、生成モデルの非常に大きなセキュリティの脆弱性だ。「チャットGPT(ChatGPT)」のようなアプリケーションを動かすAI技術である大規模言語モデルは、ハッキングが本当に簡単だ。たとえば、インターネットをブラウズできるAIアシスタントやチャットボットは、間接プロンプト・インジェクションと呼ばれる攻撃を非常に受けやすい。この攻撃は、目に見えないプロンプトを忍び込ませることで、ハッカーの望みの通りにボットを動作させたり、外部の者がボットをコントロールしたりできるようにするというものだ。2023年4月に書いたように、攻撃を受けたボットは、フィッシングや詐欺の強力なツールになる可能性がある。

研究者たちはまた、AIを訓練するためのデータセットに有害なデータを混入させることにも成功している。これは、AIモデルを永久に破壊してしまいかねない。もちろん、有害なデータを混入させようとするのは悪意ある行為者だけではない。「ナイトシェード(Nightshade)」と呼ばれる新しいツールを使えば、アーティストはオンラインにアップロードする前に、自分のアート作品のピクセルに目に見えない変更を加えることができる。この変更が加えられたアート作品が、AIモデルを訓練するためのデータセットに取り込まれると、そのモデルは無秩序かつ予測不可能な形で破壊されることになる。

このような脆弱性があるにもかかわらず、テック企業はWebをブラウズできるアシスタントやチャットボットなど、AIを搭載した製品の開発にしのぎを削っている。ハッカーが正常に動作しないデータを混入してAIシステムを操作するのは簡単なので、AIシステムがハッキングされるのを目にするのは時間の問題だろう。だからこそ私は、米国の技術標準化機関である米国国立標準技術研究所(NIST)が1月に入ってから発表した新しいガイダンスで、こうした問題に対する意識を高め、緩和する手法を提示したことを嬉しく思っている。残念なことに、これらのセキュリティ問題に対する確実な解決策は今のところなく、問題をより深く理解するためにはさらに多くの研究が必要だ。

このような欠陥があるにもかかわらず、日常的に使われているソフトウェアにAIが統合されていくにつれ、私たちの社会や生活におけるAIの役割はますます大きくなっていくだろう。規制が追いつくにつれて、AIに関しては、オープンで批判的な心を持ち続けることがこれまで以上に重要になってくる。

機械学習が地震予知を可能にするかもしれない

現在の緊急地震速報システムは、人々に最悪の事態に備えるための大切な時間を提供しているが、それには限界がある。誤検出や見逃しは起こる。さらに、こうしたシステムは既に発生した地震に対してのみ反応するので、天気を予測するように地震を予知することはできない。もし地震予知が可能になれば、送電網の遮断から住民の避難まで、リスク管理のためにもっと多くのことができるようになるだろう。

一部の科学者は、地震が起こる前に警告を発することを最終的な目標として、地震ノイズ、動物の行動、電磁気学のシグナルなどのデータから地震のヒントを導き出せればと考えている。AIをはじめとする手法は、人々が安全を確保するのに間に合うような地震予測を追求する中で、科学者たちに希望を与えている。 アリー・ハッチソンによる記事はこちら

AI関連のその他のニュース

アイソモルフィック・ラボ(Isomorphic Labs)が製薬会社2社との提携を発表した。グーグル・ディープマインド(Google DeepMind)の創薬スピンオフ企業が、大手製薬会社であるイーライリリー(Eli Lilly)およびノバルティス(Novartis)と新たに2つの「戦略的提携」を結んだ。この契約は、アイソモルフィックラボにとって30億ドル近い価値があり、AIを使った新しい治療法の可能性を見い出すための資金をもたらすと、アイソモルフィック・ラボは発表した

オープンAIの取締役会でのやり取りがさらに判明した。ジョージタウン大学セキュリティ・エマージング・テクノロジー・センターのAI研究者であり、オープンAIの元取締役であるヘレン・トナーは、同社のサム・アルトマンCEO(最高経営責任者)解任に同意した理由について、ウォール・ストリート・ジャーナル紙に語った。詳細には触れていないが、トナーは解任に至ったのは安全性ではなく、信頼の欠如であったことを強調している。一方、マイクロソフト幹部のディー・テンプルトンは、議決権を持たないオブザーバーとしてオープンAIの取締役会に加わった

新種のAIコピーは有名人を完全に再現できる。法律は無力だ。有名人たちは、自分そっくりの説得力のあるAIレプリカを目にするようになっている。「フェイク禁止法(No Fakes Act)」と呼ばれる米国の新たな法案は、このようなAIレプリカの作成者らに対し、元の人間から使用許可を得ることを義務づけている。しかしこの法案は、複製された人間やAIシステムが米国外にある場合には適用されない。これは、AI規制がいかに難しいかを示すもうひとつの例だ。(ポリティコ

最大級のAI画像データセットが、児童性的虐待の素材でいっぱいであることが研究者たちによって発見され、削除された。スタンフォード大学の研究者らは、ステーブル・ディフュージョン(Stable Diffusion)などのモデルを動かしているオープンソースのデータセット「ライオン(LAION)」について、衝撃的な発見をした。インターネットの無差別なスクレイピングによって、AIのデータセットに偏った有害なコンテンツが大量に含まれていることはわかっていたが、衝撃的な発見だ。AIにおけるより良いデータの取り扱いを実践することが切実に必要とされている。(404メディア

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ