このページの本文へ

EU AI法暫定合意、世界の「お手本」はなぜ難航したのか?

2023年12月12日 11時53分更新

文● Tate Ryan-Mosley

  • この記事をはてなブックマークに追加
  • 本文印刷
AP Photo/Jean-Francois Badia

画像クレジット:AP Photo/Jean-Francois Badia

本格的なAI規制法として動向が注目されてきたEUの「AI法(AI Act)」がようやく暫定合意に達した。なぜ難航したのか? 争点となったのが、イノベーションと規制をめぐるバランスだ。

この記事は米国版ニュースレターを一部再編集したものです。

この記事のオリジナルが米国版に掲載された直後の12月8日、EU AI法が暫定合意に達した。詳細は続報記事(日本版翻訳中)でお伝えする。

欧州連合(EU)の3機関は、2021年に最初に提出された人工知能(AI)を包括的に規制する「EU AI法(EU AI Act)」の最終法案について、熱心に協議を重ねてきた。当初のとりまとめ期限だった12月6日は過ぎてしまったが、議員らは諦めておらず、7日の早朝、そして8日にも議論が続いている。

ほんの数か月前までは、EU AI法は成立へ向けて必要なすべての票を獲得し、欧州圏をはるかに超えたAI規制の世界基準を打ち立てる方向へ進んでいるかのように見えた。しかし現在、加盟国の首脳で構成される欧州理事会のフランス、ドイツ、イタリアがこの包括法案の基本項目の一部に異議を唱えており、法案は否決の危機に瀕しているようだ。そうなれば、欧州以外の他の国々が世界的なAIアジェンダの設定に参加する扉が開かれることになる。

主な対立点と今後の課題をより深く理解するために、本誌のAI担当上級記者であるメリッサ・ヘイッキラと、エイダ・ラブレス研究所(Ada Lovelace Institute)の政策専門家であるコナー・ダンロップに話を聞いた。先に注意しておくが、事態はあまりにも複雑であり、現在も変化し続けている。コナーによると「最も驚くべきことは、EUの3機関すべてによる草案作成と再草案の度合い」であり、コナーは「前例がないこと」だと表現した。2人の助けを借りて、大きな疑問のいくつかに答えるために最善を尽くしてみたい。

EU「AI法」の基本方針 

まずはおさらいから。EU AI法は、AIの製品や利用を規制するためのリスクに基づいた枠組みを確立することを目指している。たとえば、採用におけるAI活用は、AIを利用したスパムフィルターのような「低リスク」用途よりも厳しく規制され、高い透明性が求められる。(EU AI法の詳しい情報を知りたい方は、この法案についてまとめた2023年6月の記事を参照してほしい)

最終合意に至るのが難しい理由

第一に、基盤モデルについて意見の相違がかなりあり、最近の議論ではその点にほとんどの時間とエネルギーが費やされているとメリッサ記者が教えてくれた。「基盤モデル」という用語にはいくつかの定義があり、それが意見の相違を引き起こしている一因でもあるのだが、その中心概念は、さまざまな用途でさまざまなことができる汎用目的型AI(general-purpose AI)に関係している。

読者の皆さんはおそらくチャットGPT(ChatGPT)を試したことがあるだろう。チャットGPTのインターフェイスを支えているのが基盤モデルであり、この場合はオープンAIの大規模言語モデルだ。ただし、基盤モデルの技術は教育や広告など、より用途の狭い他のさまざまなアプリケーションにも組み込めるため、事態はさらに複雑になる。

EU AI法の草案では、基盤モデルは明確に考慮されていなかったが、過去1年間の生成AI(ジェネレーティブAI)製品の普及により、議員らは基盤モデルをリスクの枠組みに統合するよう促されたとメリッサ記者は説明する。6月に欧州議会で可決された法案では、割り当てられたリスク分類やその使用方法に関係なく、すべての基盤モデルが厳しく規制されるものだ。これは、基盤モデルの開発に必要な膨大な量の訓練データ、知財とプライバシーの問題、および基盤モデルが他のテクノロジーに与える全体的な影響を考慮して、必要な措置と判断された。

しかしもちろん、基盤モデルを開発するテック企業は異議を唱え、基盤モデルの使用方法を考慮したアプローチを提唱している。フランス、ドイツ、イタリアは立場を翻し、基盤モデルはAI法の規制から大幅に除外されるべきだとまで主張している(その理由については後述する)。

コナーによると、EUの最新の交渉では、少なくとも部分的には基盤モデルが、必要な計算リソースに基づいて分類される2層アプローチが導入されたという。そして、これは実際には、アンソロピック(Anthropic)やメタなどのモデルも含め、「強力な汎用モデルの大部分が、軽度の透明性と情報共有の義務によってのみ規制される可能性が高い」ことを意味するという。「これは(EU AI法の)範囲を劇的に狭めることになるでしょう」とコナーは付け加えた。コナーによると、オープンAIのGPT-4は、市場に出回っているモデルの中で間違いなく上位階層に入る唯一のモデルだが、グーグルの新しいAIモデル「ジェミナイ(Gemini)」も同様かもしれないとのことだ(発表されたばかりのジェミナイについての詳細は、本誌の記事を参照してほしい)。

基盤モデルをめぐるこの議論は、「産業への配慮」というもうひとつの大きな問題と密接に関係している。EUはその積極的なデジタル政策(画期的なデータ・プライバシー法であるGDPRなど)で知られており、米国や中国のテック企業から欧州人を守ろうとする姿勢をとることが多い。しかし、メリッサ記者が指摘するように、ここ数年で欧州企業も大手テック企業として台頭し始めている。たとえば、フランスのミストラルAI (Mistral AI)やドイツのアレフ・アルファ(Aleph Alpha)は最近、基盤モデルを開発するために数億ドルの資金を調達した。フランス、ドイツ、イタリアがEU AI法はAI産業にとって負担が大きすぎるのではないかと主張し始めたことは、ほぼ間違いなく偶然ではないだろう。コナーによると、このことは、規制環境が企業の自主的な取り組みに依存することになり、それが拘束力を持つようになるのは、後になってからになる可能性があることを意味するという。

「イノベーションを妨げることなく、AIテクノロジーを規制するにはどうすればいいのでしょうか。巨大テック企業によるロビー活動が盛んなのは明らかですが、欧州諸国にも成功を収めているAIスタートアップ企業が存在するため、欧州諸国はもう少し産業に優しい立場に移行したかもしれません」とメリッサ記者は意見を述べた。

最後に、メリッサ記者とコナーは、警察活動における生体認証データとAIに関する合意を見つけるのがいかに困難となってきたかを語ってくれた。「当初から、最大の争点のひとつは、公共の場での警察機関による顔認識の使用でした」とメリッサ記者は説明した。

欧州議会は、顔認識テクノロジーが監視社会を可能にし、市民のプライバシーやその他の権利を侵害する恐れがあるとして、生体認証に対する規制強化を求めている。しかし、来年のオリンピック開催国であるフランスのような欧州諸国は、犯罪やテロリズムとの戦いにAIを活用したいと考えている。そして、メリッサによると、積極的なロビー活動を展開し、提案されている政策を緩和するよう欧州議会に大きな圧力をかけているという。

今後の展開

12月6日という期限は、その日以降も交渉がすでに継続されているため、基本的に恣意的な期限だった。しかし、EUにはより厳しい期限が迫ってきている。

メリッサ記者とコナーによると、来年6月の欧州議会選挙の数カ月前に重要な条項を決めておく必要があるという。そうしないと、法案が完全に立ち消えになったり、2025年まで延期されたりする可能性がある。ここ数日で合意に至らなければ、議論の再開はクリスマス後になる可能性が高い。そして、実際の法律の条文を固めるだけでなく、施行と執行に関しても解決すべきことがまだたくさんあることを忘れてはならない。

コナーは「EUがAIに関する世界初の水平的規制に合意し、世界標準を打ち立てることに大きな期待が寄せられていましたが、AIのバリューチェーン全体に適切に責任を負わせることができず、EU市民とその権利を適切に保護することができなければ、グローバル・リーダーシップを発揮しようとする試みは大きく損なわれるでしょう」と語った。

テック政策関連の気になるニュース

 

テック政策関連の注目記事

グーグルのサンダー・ピチャイ最高経営責任者(CEO)は、チャットGPTに対抗するグーグルのAIモデルであるジェミナイのリリース前夜、MITテクノロジーレビュー[米国版]編集長と対談した。インタビューには興味深い点がたくさんあったが、私は知的財産とAIの未来についての話に特に興味を持った。ピチャイCEOは、グーグルは「法制度の正しい側に立つよう努力し、また今日の多くのコンテンツ・プロバイダーと共に深い関係を築いていくつもりです」としながらも、「論争になる」と予想していると述べた。「私たちは、時間が経つにつれてこのすべてが上手く機能するような、ウィンウィンのエコシステムを構築しなければなりません」。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ