画像クレジット:Stephanie Arnett/MITTR | Getty
生成AI技術の普及に伴い、デマやプロパガンダなどでの悪用が懸念されている。インターネットをより安全で自由な環境にするために重要な3つの取り組みを紹介しよう。
この記事は米国版ニュースレターを一部再編集したものです。
政府が生成AI(ジェネレーティブAI)を使用して会話を操作し、オンライン上の情報を自動的に検閲していると聞いても、あなたはショックを受けないかもしれない。 しかし今、このようなことがいつ、どこでどのように起こっているのかについて、私たちはより深く理解できるようになっている。新しい報告書によれば、パキスタン、ナイジェリア、米国を含む16カ国の政治関係者が、この1年間で生成AIを利用してインターネット上での支配力を強めていることが明らかになっているのだ。
人権擁護団体のフリーダム・ハウス(Freedom House)は10月4日、世界中のインターネットにおける自由の状況に関する年次レビューを発表した。デジタル表現の自由への変化を理解する上で、特に重要な指標の1つとなるものだ。
記事にしたように、この報告書は生成AIが地政学においてすでにゲームチェンジャーとなっていることを示している。しかし、懸念すべき兆候はこれだけではない。 現在、世界的にインターネットにおける自由はかつてないほど弱まり、政治、社会、宗教を理由にWebサイトをブロックしている国の数はかつてないほど増えているのだ。 また、ネット上の表現を理由に国民を逮捕した国の数も、過去最高に達している。
これらの問題は、世界中で50以上の選挙が控えている年を前にして、特に喫緊の課題となっている。フリーダム・ハウスが指摘しているように、選挙のサイクルはインターネットの自由が最も脅威にさらされることが多い時期となる。フリーダム・ハウスは、増大するこれらの危機に国際社会がどのように対応すべきかまとめたいくつかの勧告を発表しており、私はまた、別の政策専門家にも見解を尋ねた。
楽観主義者と言われるかもしれないが、彼らとの会話の中で、インターネットをより安全でより自由な環境にするために、私たちができることが少なくともいくつかあると感じた。テック企業や議員たちが実行すべき3つの重要なポイントを以下に挙げる。
1. AIモデルに関する透明性を高める
フリーダム・ハウスからの主な勧告の1つは、AIモデルがどのように構築されたかを示す情報をより多くの公開するよう奨励することだ。チャットGPT(ChatGPT)のような大規模言語モデル(LLM)は、不可解なことで悪名高い(本誌のメリッサ・ヘイッキラ記者とウィル・ダグラス・ヘブン編集者の記事を読んでほしい)。また大規模言語モデルのアルゴリズムを開発する企業は、モデルの訓練にどのようなデータを使用したかを示す情報の開示にずっと抵抗してきた。「政府の規制は、より透明性を高め、公衆による効果的な監視の仕組みを提供し、人権保護を優先することを目的とすべきである」とフリーダム・ハウスの報告書は述べている。
政府は、急速に進化するこの分野で遅れを取らないように取り組みを急いでいるが、包括的な法整備には手が届かない可能性もある。だが、訓練データの開示や出力のバイアスを確かめる標準化したテストなど、より狭い要件を義務付ける提案は、より対象を絞った政策に取り入れられる可能性がある(特に米国がAI規制に向けて採り得る施策について詳しく知りたいときは、こちらの記事を読んでほしい)。
インターネットの自由に関して言えば、透明性の向上は、ネット上で見ているコンテンツが、国家の支援を得てることを利用者が認識するのにも役立つ。たとえば中国は、政府がAI生成モデルによって作成されたコンテンツを共産党に有利なものになるよう要求している。
2.AIを使ったコンテンツのスキャンとフィルタリングに注意
ソーシャルメディア企業の間では、プラットフォームで表示するコンテンツを管理するために、アルゴリズムを使用することが増えている。自動モデレーションはデマの阻止に役立つが、ネット上での表現を妨害する恐れもある。
「企業は、国家主導のデマキャンペーンを悪化させないよう、自社のプラットフォームや製品を設計、開発、展開する方法を検討する必要がありますが、人権、つまりオンラインでの表現の自由と結社の自由を守るよう警戒しなければなりません」。非営利団体「民主主義及びテクノロジーセンター(Center for Democracy & Technology)」の最高技術責任者(CTO)であるマロリー・ノーデルは述べている。
さらにノーデルCTOは、政府がプラットフォームにコンテンツの検閲と制限を要求するときは、意図したよりも多くのコンテンツを遮断するアルゴリズムにつながることがよくあると話している。
解決策の一つとしてノーデルCTOは、テック企業は人間がコンテンツのモデレーションで実践的な役割を果たす「ヒューマン・イン・ザ・ループ機能を強化する」方法を見つけるべきであり、また「デマのブロックと報告についてはユーザー団体に頼る」べきだと考えている。
3.AI生成コンテンツ、特に選挙関連に適切にラベルを付ける方法を開発する
現在、AIが生成した画像、動画、音声にラベルを付けることは非常に困難である(過去にこの話題について記事を書いている。特に、技術的な取り組みについて説明している)。しかしこの問題については絶対的な基準はないため、誤解を招くコンテンツ、特に選挙に関するものが大きな害につながる可能性がある。
フリーダム・ハウスの報告書に携わり、同団体でテクノロジーと民主主義を担当する研究主任を務めるアリー・ファンクは、ナイジェリアで大統領候補のアティク・アブバカルと彼のチームが、選挙結果の不正操作を計画していると言っているように聞こえるAI生成音声が存在するという例について話してくれた。ナイジェリアには選挙に関連する紛争が長年続いており、ファンク研究主任は、このようなデマは「くすぶっている潜在的な不安をあおり」、また「悲惨な影響」につながる恐れがあると語っている。
AIが生成した音声を検出することは、特に困難だ。ファンク研究主任は、上記のナイジェリアの例は、研究グループが記録した多くの例のうちの1つにすぎず、そして「さまざまなタイプのラベル付けの必要性を物語っている」と述べている。たとえ来年の選挙に間に合わないとしても、今から理解し始めることが重要なのだ。
◆
テック政策関連の気になるニュース
- ワイアードとザ・マークアップによる共同調査では、予測的警察活動ソフトウェアの的中確率は1%未満であることが示された。この調査結果は恐ろしいものではあるが、驚くべきことではない。警察技術は特に法科学において、似非科学として暴露されてきた長い歴史がある。
- 生成AIを所有または使用している企業は、偏見に基づく出力や著作権に関係する訴訟など、AIモデルを使用するリスクを軽減するための保険に近いうちに加入できるようになるかもしれない。これは、生成AI市場における興味深い発展だ。
テック政策関連の注目研究
スタンフォード大学の「ジャーナル・オブ・オンライン・トラスト・アンド・セーフィティ(Journal of Online Trust and Safety)」に掲載された新しい論文は、低リソース言語(正確なAIシステムを構築するのに十分なデジタル化された学習データがない言語)でのコンテンツモデレーションが、なぜこれほど役に立たないのかを明らかにしている。また、この問題を改善するには、どこに注意を向けるべきかについての興味深い事例も示している。ソーシャルメディア企業は、最終的には「それらの言語でのより多くのトレーニングデータとテストデータ」を必要としているが、「より低いところにある果実(今すぐにできること)」は、低リソース言語での自然言語処理(NLP)を研究する地元の活動と草の根の活動に投資することだと主張している。
「出資者たちは、リソースが最も少ない言語の一部のデジタル化とツールの構築に取り組んでいる、言語および言語族に特化したNLP研究ネットワークの地域集団を支援できる」と研究者たちは書いている。言い換えれば、出資者たちは低リソース言語からより多くのデータを収集するために欧米の大手テック企業に投資するよりも、新しいAI研究に取り組んでいる地域のNLPプロジェクトに資金を費やすべきだということだ。