画像クレジット:Stephanie Arnett/MITTR | Getty
生成(ジェネレーティブ)AIによる搾取や害毒に、人々はこれまでなすすべもなかった、だが最近になり、政治家や権利を侵害された人々の巻き返しが活発になっている。
人工知能(AI)革命が起きている。7月14日にハリウッドの俳優組合がストライキに突入し、すでに進行中だった脚本家たちのストライキに加わった。この2つの組合が同時にストライキをするのは、過去60年で初めてのことだ。AIがクリエイターたちにとって大きな争点となっている。
脚本家たちは、映画スタジオがAI言語モデルを使って脚本を書くことに抗議している。俳優たちは、AIテクノロジーを使って人々の顔や体をスキャンし、同意や補償もなくそれらのディープフェイク風デジタルコピーを使用する権利を永久に所有しようとする企業からの提案を拒否してストライキに入っている。
この2つの事例をつないでいるのは、人間がコンピューター・プログラムに取って代わられる不安と、それに関して私たちにできることはほとんどないという思いである。無理もない。行き過ぎたテクノロジー・ブームの規制が緩かったため、AI企業は安心して搾取的で有害な製品を作り、提供してきた。
だが、そのような状況は変わろうとしている。 生成AI(ジェネレーティブAI)ブームが、AIに特化した法律の成立を目指す米国の政治家たちの熱意を蘇らせたのだ。法律が何らかの効果を発揮するまでにはしばらく時間がかかるだろう。しかし、すでに既存の法律が、自分たちの権利がAI企業によって侵害されたと話す人々に十分な攻撃材料を提供している。
私は最近、そのような企業を次々に襲った訴訟と調査に注目した記事を公開したばかりだ。それらの訴訟は、今後のAIの開発や利用の方法がより衡平で公正なものとなるようにする上で、大きな影響力を持ちそうだ。
米国連邦取引委員会(FTC)は7月中旬、オープンAI(OpenAI)が自社の人気AIチャットボット「チャットGPT(ChatGPT)」を訓練するために人々のオンラインデータをスクレイピングし、消費者保護法に違反したかどうかについて調査を開始した。
一方、アーティストや作家たち、画像企業のゲッティ(Getty)は、対価なく自分たちの作品でモデルを訓練し、著作権法に違反したとして、オープンAIやスタビリティAI(Stability AI)、メタなどのAI企業を訴えている。7月中旬には、コメディアンで作家のサラ・シルバーマンが、AI企業に対する作家たちの著作権をめぐる闘いに加わった。
FTCの調査も多数の訴訟も、中心にある問題は、モデルを訓練するためのデータをインターネットから吸い上げることに頼っているAI業界のデータ慣行である。これには必然的に、個人データや著作物も含まれる。
これらの訴訟は基本的に、法的に許されるAI企業の振る舞いとはどのようなものか決定することになると、弁護士のマシュー・バタリックは言う。バタリック弁護士は、ギットハブ(GitHub)やマイクロソフト、オープンAI、スタビリティAI、メタに対する集団訴訟において、シルバーマンを含むアーティストや作家たちの代理人を務めている。
実際のところ、AI企業はモデルの構築方法や、使用するデータに関して、多くの選択肢を持っている(それを気にしているかどうかは別問題だ)。裁判所は企業に対し、モデルを構築した方法や、データセットに取り込んだデータの種類を共有するように強制するかもしれない。AIモデルに関する透明性を高めることは歓迎すべき動きであり、AIは魔法のようなものという神話を壊すのに役立つだろう。
ストライキ、調査、そして裁判は、アーティスト、俳優、作家などが、AIモデルの訓練用データとして自分たちの作品が使われる場合に、ライセンスとロイヤリティの制度を通じて補償される道を開く助けにもなるかもしれない。
しかし、それらの裁判は、私たちが社会として始めようとしているより大きな闘いの前兆に思える。裁判は、私たちが民間企業にどれくらいの権力を与えても構わないのか、そして、AIによって動くこの勇敢な新世界において、私たちがどれだけの行為主体性を持つことになるのか決めることにも役立つだろう。
それは闘う価値のあることだと私は考える。
◆
ニュースあれこれ
チャットGPTは下手なライターを「書き上手」に変えられる。チャットGPTは人間のライターに取って代わるのではなく、スキルの低いライターをより上手にするとしたらどうだろう?『サイエンス(Science)』誌に掲載されたマサチューセッツ工科大学(MIT)の新しい研究は、チャットGPTが従業員間の文章作成能力の差を埋めるのに役立つ可能性があることを示唆している。研究者たちは、文章作成スキルに欠ける経験の浅い労働者が、AIによって、よりスキルの高い同僚と同じくらいの質の文章を書けるようになる可能性があることを発見した。この話は、AIが職場をどのように変える可能性があるのかということについての興味深い一端を垣間見させてくれる。 (MITテクノロジーレビュー)
ムスタファ・スレイマンの新たなチューリングテストは、AIが100万ドルを稼げるかどうか評価する。この記事では、ディープマインド(DeepMind)の共同創業者が、現代のAIシステムの知性を測定する新たな方法を提案している。スレイマンのテストでは、AIモデルに対し、わずか10万ドルの投資金を使い、数カ月のうちに小売販売ウェブプラットフォームで100万ドルを稼ぐことを求める。このテストが、「世界経済にとって極めて重大な瞬間」となる可能性がある機械の計画性とスキルのレベルを示すことになと、スレイマンは主張している。 (MITテクノロジーレビュー)
注目されるAIのデータアノテーター。3つの新しい記事が、AIシステムを賢く見せるためにたいていは感謝もされず低賃金で働く人間の労働者に注目している。 レスト・オブ・ワールドは、マニラやカイロから来ている外部委託労働者に、生成AIが彼らの仕事と収入をどのように変えているか話を聞いた。 ブルームバーグは、新たなチャットボット「バード(Bard)」向けにデータにラベル付けする方法を指示する、アノテーター向けの内部文書を入手した。それによって、アノテーターが残虐性、戦争の映像、児童ポルノ、ヘイトスピーチに直面していることがわかった。そして最後に、ウォール・ストリート・ジャーナルは、チャットGPTのケニア人データアノテーターたちを特集した新たなポッドキャストのエピソード配信を開始した。彼らの困難な仕事の体験が録音で語られている。
白熱するAI破滅論の中心の内側。AIスタートアップ企業のアンソロピック(Anthropic)が、チャットGPTのライバルとなる「クロード(Claude)2」をリリースした。アンソロピックは、AIによって人類が破滅する危機を防ぐことを大きく掲げる企業の1社だ。この記事では、同社内に存在する不安に関する愉快な話がいくつか詳細に語られている。また、AIテクノロジーを構築し続けるテック企業が、同時に、AIが人類を皆殺しにすると話す理由を考察している。(ニューヨーク・タイムズ)
AIが政治をより簡単で、安価で、危険なものにしている。米国が混沌とした選挙シーズンに向けて準備を進める中、この素晴らしい記事は、生成AIが政治的なキャンペーンとコミュニケーションをどのように変え、それにはどのようなリスクが伴うのか、考察している。(ブルームバーグ)