グーグル傘下のYouTubeは11月14日(現地時間)、生成AIを利用した動画を投稿する際のガイドラインを今後数ヵ月のうちに厳格化することを発表した。
情報開示の要件と新しいコンテンツ・ラベル
生成AIの急激な進歩はディープフェイクをはじめ、視聴者を誤解させる可能性のあるコンテンツの作成を容易にしつつある。
YouTubeはこの問題に対処するため、今後数ヵ月の間にAIツールの使用を含め、合成・改変されたコンテンツを作成したクリエイターに対し、そのことを視聴者にラベルで開示するよう求めるコミュニティガイドラインのアップデートを導入する。
情報開示は拒否できるが、繰り返して拒否した場合、コンテンツの削除、アカウント停止、またはその他の罰則の対象となる可能性があるという。
また、ラベルの有無に関わらず、コミュニティガイドラインに違反した映像は削除される可能性がある。なお、ショート動画の背景を生成する「Dream Screen」などYouTubeの生成AI機能によって作成されたコンテンツには自動的にラベルが付くようになるようだ。
生成AIに利用された側からの削除リクエストも
生成AI技術で顔や声を勝手に使われた場合も、今後数ヵ月のうちにプライバシーリクエストプロセスを用いて削除リクエストができるようになる。
ただし、すべてのリクエストが通るわけではなく、「そのコンテンツがパロディや風刺であるかどうか、その人を特定できるかどうか、公人や著名な個人をフィーチャーしているかどうか」といった様々な要素が考慮されるという。
また、レコード会社などが、アーティストの歌声やラップを模倣したAI生成コンテンツの削除をリクエストする機能も導入される予定だ。
今後もYouTubeはコンテンツモデレーションにAI技術を積極的に導入していくとしているが、AI検知による問答無用の収益化停止やアカウント停止といった問題も頻出しており、精度の向上が求められるところだ。