書簡のもとになった2017年の「AI原則」
こうしたAIをめぐる動きを受ける形で、アメリカで2014年に誕生したのがFLIでした。
AIの安全性、倫理性、および人類の未来に対する影響に関する研究と議論を推進するNPOとして、活発な活動を行うようになりました。設立者にはマックス・テグマーク(MITの物理学者)、ジェイミー・F・テグマーク(ロボット研究者)、アンソニー・アギレ(カリフォルニア大学サンタクルーズ校の物理学者)、ヴィクトリヤ・クラコヴナ(DeepMindの研究者)といった、多様な研究のバックボーンを持っている人たちが参加しているところに特徴があります。様々なカンファレンスを開催し、AIの議論を中心に、人間と技術の関係についての議論を深めていくことになりました。
そして、翌年には、イーロン・マスクがアドバイザーとして参加し、活動を支えるために1000万ドルの資金提供を行っています。マスク自身も、カンファレンスに頻繁に参加し、AIの可能性についてのディスカッションをしています。
イーロン・マスクは2015年にOpenAIを設立します。独自のAI開発を進めるとともに他の研究者や組織と協力し、AI技術のリスクを最小限に抑え、広く利用可能な形で技術を開発することを重視する方針を打ち出したNPOです。OpenAIは長らくFLIと協力関係にありました。
FLIの大きな成果とされているのが、2017年の「AI原則(AI Principles)」です。
AI原則は、今進んでいるAI開発と利用について、倫理的・安全性の指針を提供し、AI技術が人類全体の利益になるように設計・運用されるべきだという考えに基づいています。
原則は23の項目で構成されています。研究の利益共有、AIの安全性、AIの倫理性、AIの開発プロセスなどの透明性、(潜在的な問題への)責任、公平性、人間の価値の尊重、長期的な影響の重視といったことが重視すべきポイントとして書かれています。
これはAI 研究方法の原則をまとめたもので、特に重要な点として安全性と透明性を掲げ、倫理性をコントロールして研究を進めなければいけないということを強調しています。
研究者を中心に5000名以上が署名をして、「この原則を守っていきましょう」ということになりました。AIの原則で思い出すのはSF作家のアイザック・アシモフが小説の中で提案した有名な「ロボット三原則」です。ボストロムは誕生から半世紀以上経っているにもかかわらず、「未だ人類が思いついた最善策」であるとしています。しかしながら実際にはルールが簡単すぎるために、現在のコンピュータの水準では、実現は難しいという背景もあり、今の時代にあった原則を作ろうと議論されたのがAI原則だったわけです。
書簡は現在、「イーロン・マスクが署名した」ということを中心に報道されていますが、当時の原則を振り返り、ほとんど考慮もされていないような状態で開発が進むようになっているため、一度立ち止まって検討するべきだというのが今回の書簡でした。
GPT-4のように非常に強力で、かつ、中身がどういう風にできているのか分からないものが出てきてしまった以上、その社会に対するリスクと恩恵を精査するために、6ヵ月間の開発中止を要請するのだと。場合によっては政府の介入も求めるかなり強い主張の文書でした。
その信頼性に疑問があるとされてはいるものの、署名者は研究者や技術者など2万7000人におよび、その人数にも注目が集まりました。
有名なところでは、『ホモデウス』(河出文庫)で人間は神を目指しているという議論をしていた歴史学者、ユヴァル・ノア・ハラリも署名をしています。
ハラリは近年の300年の人類の発展により、飢餓といった生活に制約をもたらす基本的な問題を解決したことで世界をすべて人間にとって都合のいいように作り替える「人間至上主義」が当たり前になったとしています。それが最新科学と結びつくことにより、今後テクノ宗教が登場するものと予測しています。その宗教は、テクノロジーによりさらに人間に都合よく世界を作り替えるテクノ人間至上主義と、AIにより人類の役割は終わるとするデータ教とがあり、人間は神のような力を求めるようになるとしています。
つまり、人類がAIにとって変わられるシンギュラリティと信じられているものを目指すことになるのだということです。その動きを押しとどめることは難しいとしているものの、その到達点には疑問を挙げています。その意味で、強力なAIが登場することに対しての疑問を持って署名をしたということでしょう。
書簡では、AIが人類に取って代わるような可能性のあるAI技術を推し進めるような決定を「選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAIシステムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発されるべき」と厳しい論調で批判し、「我々はすべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6ヵ月間、直ちに一時停止するよう要請する。この一時停止は、公的かつ検証可能なものでなければならず、すべての主要な関係者を含むものでなければならない。もし、このような一時停止が迅速に実施できない場合は、政府が介入してモラトリアムを実施する必要があります」と、政府による介入をも進めることを促しています。
「AIの研究開発は、今日の強力な最先端システムをより正確、安全、解釈可能、透明、堅牢、整列、信頼、忠実なものにすることに再注目されるべきである。これと並行して、AI開発者は政策立案者と協力し、強固なAIガバナンスシステムの開発を劇的に加速させなければならない」とかなり強い主張が行なわれています。
この連載の記事
-
第84回
AI
画像生成AI「Stable Diffusion 3.5」性能はものたりないが、自由度が高いのは魅力 -
第83回
AI
リアルすぎてキモい 動画AIの進化が止まらない -
第82回
AI
もはや実写と間違えるレベル 動画生成AI「Runway」の進化がすごい -
第81回
AI
AIイラスト、こうしてゲームに使っています -
第80回
AI
ゲーム開発はAI活用が当たり前になりつつあるが、面白さを作り出すのは人間の仕事 -
第79回
AI
AIが考える“アイドル”がリアルすぎた グーグル「Imagen 3」なぜ高品質? -
第78回
AI
話題の画像生成AI「FLUX.1」 人気サービス「Midjourney」との違いは -
第77回
AI
画像生成AI「FLUX.1」が相当ヤバい LoRAで画風の再現も簡単に -
第76回
AI
「Stable Diffusion」の失敗に学び、画像生成AIの勢力図を塗り変える「FLUX.1」 -
第75回
AI
商業漫画にAIが使われるようになってきた -
第74回
AI
AIバブル崩壊をめぐって - この連載の一覧へ