画像クレジット:Anna Sorokina
最近の人工知能(AI)の華々しい成功の背後には、AIのパフォーマンスを向上させるために低賃金で働いている人々がいる。
この記事は米国版ニュースレターを一部再編集したものです。
華々しい人工知能(AI)モデルの成功の背後にある人間の労働について、いろいろ考えている。
AIチャットボットが賢いことを言っている風に聞こえ、有害な戯言をなるべく吐かないようにさせる秘密は、「人間のフィードバックによる強化学習(RLHF:Reinforcement Learning from Human Feedback)」という手法を使うことにある。人々からのインプットを使用してモデルの返答を改良するのだ。
人間のフィードバックによる強化学習は、データ・アノテーターという少数の人間部隊の作業に頼っている。データ・アノテーターは、AIの返答における一連の文章が、意味をなしているか、自然で流暢に聞こえるかどうか評価し、AIモデルのデータベースに残すべきか、削除すべきかを決定する。
最もすばらしいAIチャットボットでさえ、考案者が望むような動作をさせるためには何千時間もの人による作業を必要とし、しかもそれだけ費やしてもその動作には信頼がおけない。 その作業はときとして、非道で腹立たしいものにもなる。6月12日から15日に開催される「公平性、説明責任、透明性(FAccT)」に関する米国コンピューター学会(ACM)のカンファレンス「ACM FAccT 2023」でこの話が出ることだろう。同カンファレンスは、AIシステムをより説明責任を果たす倫理感のあるものにする方法など、私が記事にしたいことにまつわる研究が一堂に会する。
FAccT 2023で私が楽しみにしている公開討論会の1つが、AI倫理の先駆者であるティムニット・ゲブルのものだ、ゲブルは、グーグルAI倫理部門の共同部門長を務めていたが、同社の方針に合わずに解雇された人物である。彼女はインターネット上のヘイトや誤情報をなくす仕事をしているエチオピア、エリトリア、ケニアのデータワーカーたちが、いかに搾取されているかについて語ることになる。たとえばケニアのデータ・アノテーターたちは2ドルに満たない時給で、チャットGPT(ChatGPT)の有害性を軽減させるために、暴力や性的虐待に関する大量の不穏なコンテンツをふるいにかける仕事をしている。彼らは現在、よりよい労働条件を獲得すべく労働組合を結成しつつある。
昨年、MITテクノロジーレビュー(米国版)はシリーズ記事で、AIが新たな植民地的世界秩序を作り出し、データワーカーたちがその矢面に立たされている実態を掘り下げた。チャットGPT、Bing(ビング)、Bard(バード)といった人気AIチャットボットや、DALL-E 2(ダリー2)、ステーブル・ディフュージョン(Stable Diffusion)といった画像生成AIの台頭により、AI周辺の搾取的な労働慣行に光を当てることが、ますます緊急かつ重要になってきた。
データ・アノテーターは、モデルの訓練からアウトプットの検証や、モデル公開後の微調整を可能にするフィードバックの提供まで、AI開発のあらゆる段階に関与している。彼らはしばしば、高い目標や厳しい納期を守るために、信じられないほど速いペースでの仕事を強いられる、とロンドン大学シティ校でデータワークにおける労働慣行を研究する博士研究員、スラビア・チャンディラモウリは言う。
「人間の介在なしにこうした大規模システムを構築できると考えているのであれば、それはまったくの誤りです」とチャンディラモウリ博士は言う。
AIモデルが大規模な意思決定をしたり、賢く見えたりするために必要な重要なコンテキストを、データ・アノテーターたちが提供しているのだ。
チャンディラモウリ博士はある事例について語る。インドのあるデータ・アノテーターは、炭酸水ボトルの画像を識別し、「ドクターペッパー」らしきものを選び出さなければならなかった。だがドクターペッパーはインドで販売されている商品ではない。しかしそれを把握する義務は、データ・アノテーターが担わなければならなかった。
データ・アノテーターには、企業にとって重要な価値観を把握することが期待されるのだとチャンディラモウリ博士は言う。「アノテーターは、自分にとって何の意味も持たないはるか遠くの物事について学んだり、そうした他のコンテキストが何であるか把握したりするだけでなく、自分たちが構築しているシステムの優先順位がどうであるのかも見当をつけながら作業しているのです」。
実は、意識しているかどうかにかかわらず、我々はすべて大手テック企業のデータ作業員なのだ、とFAccT 2023に提出した新たな論文で主張するのは、カリフォルニア大学バークレー校、カリフォルニア大学デービス校、ミネソタ大学ノースウェスタン大学からなる研究チームだ。
テキスト生成や画像生成のAIモデルは、インターネットから搔き集められた巨大なデータセットを使って訓練される。そこには人々の個人データもアーティストによる著作物も含まれ、我々が作り上げたそうしたデータは、その後永遠に、企業が儲けるために構築されたAIモデルの一部となる。人々は、公共サイトに写真を投稿したり、レディット(Reddit)のコメントに「いいね!」をしたり、リキャプチャ(reCAPTCHA)で画像をラベル付けしたり、オンライン検索をしたりすることで、知らず知らずのうちに労働を無償で提供しているのだ。
現時点では、世界最大手のテック企業の一部に力が大きく偏り、力の不均衡が起こっている。
これを変えるために必要なのは、まさにデータ革命と規制に他ならない。人々が自分たちのオンライン生活での主導権を取り戻す方法の1つは、データの使われ方に関する透明性を提唱し、フィードバックを提供する権利やデータ使用による収益を分配してもらう権利を人々に与える方法を考え出すことだ、と研究チームは主張する。
データ労働が現代のAIの根幹を形成しているにもかかわらず、データワーカーは世界中で慢性的に過小評価されて人目につかないままであり、データ・アノテーターの賃金は低く抑えられている。
「データワーカーがどのような貢献を果たしているか、まったく認識されていません」とチャンディラモウリ博士は語る。
◆
ディープマインドのAIがコードを高速化する新たな方法を発見
英国に拠点を置くディープマインド(DeepMind、4月に関連会社のAIラボと合併してグーグル・ディープマインドに改名)は、ゲームプレイAIである「アルファゼロ(AlphaZero)」の新バージョンである「アルファデブ(AlphaDev)」を使って、リスト内のアイテムを既存の最良方法よりも最大70%速く並べ替える方法を発見した。同社はさらに、暗号化に使用される重要なアルゴリズムの速度を30%向上させる手法も発見した。
AIモデルを駆動するコンピューターチップが物理的な限界に近づいているため、コンピューター科学者は、コンピューティングを最適化する新たな革新的方法を見つける必要に迫られている。こうしたアルゴリズムは、ソフトウェアで最も一般的な構成要素のひとつだ。わずかな速度の向上が大きな違いを生み、コストやエネルギーの削減へとつながる( ウィル・ダグラス・ヘブンによる詳細記事はこちら)。
AI関連のその他のニュース
ロン・デサンティスの広告に、AIが生成したドナルド・トランプとアンソニー・ファウチの写真が使われている。米国大統領選は混乱しそうだ。2024年の共和党大統領候補にロン・デサンティスを推す陣営が、AI生成によるディープフェイクを使ってライバルのドナルド・トランプを攻撃している。画像には、右派の多くに嫌われている元ホワイトハウス首席医療顧問のアンソニー・ファウチに、トランプがキスしている様子が描かれている。 (AFP)
人間は偏っているが、生成AIはさらにたちが悪い。この調査は、オープンソースの「テキストから画像を生成する」モデルであるステーブル・ディフュージョン(Stable Diffusion)が、人種やジェンダーにまつわる固定観念をいかに増幅させるかを示している。記事は、AIモデルが実際より偏った世界観を提示することを示す研究を見事に視覚化した。たとえば、「裁判官」というキーワードで生成された画像のうち、女性が占める割合はわずか3%だったが、実際には米国の裁判官の34%が女性だ。(ブルームバーグ(Bllomberg))
メタはあらゆるものに生成AIを投入している。人員削減の不安定な1年を経て、メタの最高経営責任者(CEO)であるマーク・ザッカーバーグは、フェイスブックやインスタグラムといった主力製品に生成AI(ジェネレーティブAI)を組み込む方針をスタッフに告げた。たとえば、人々はプロンプト(指示テキスト)を使って写真を編集し、インスタグラムで共有できるようになる。また、人々と対話できるAIアシスタントやAIコーチの開発も進めている。(ニューヨーク・タイムズ紙)
生成AIの満足のいく使い方。写真修正ソフトウェアで、生成AIを使って修正を施す様子をご覧あれ。