フェイスブックが人工知能(AI)を使ってリベンジ・ポルノに対処できると考えていること自体、AIの人物を特定する能力が相当強力になったことを物語っている。
フェイスブックは3月15日、本人の許可なく共有されたヌードやそれに近い動画および画像を、機械学習を使って通報を受ける前の段階で検出してブロックすると発表した。リベンジ・ポルノ(たいていは元交際相手の性的な動画を、本人の許可無く共有する行為)は、重大な問題となっており、被害者に深刻な被害をもたらしている。フェイスブックはまた、リベンジ・ポルノの被害者が、未承認画像を通報する手続きを全面的に見直すことも発表した。
フェイスブックはどのような機械学習ツールを使うのか具体的には説明していない。だが、フェイスブックは、ユーザーから提供された膨大な数のラベル付き訓練データのおかげで、画像内に含まれる人々を特定する無類の高い能力を備えている。
多くのユーザーは気づいていないが、ソーシャルメディアの写真は、機械学習アルゴリズムの訓練に幅広く利用されている。最先端のプログラムは、スナップ写真の中から人々を特定する能力で人間を上回っている。
新しい検出テクノロジーは、AIを使って説得力のあるフェイク動画をより簡単に作成できるようになった現在だからこそ、特に重要なのかもしれない。人の顔を簡単に入れ替えられるソフトウェアの登場で、有名人の偽ポルノや奇妙な合成動画の拡散につながっている。
フェイスブックの今回の試みは機械学習の活用法として価値あるものだが、AIはソーシャルメディア上の嫌がらせ、虐待、またはフェイクニュースに一挙に対応できる確実な解決策では決してない(マーク・ザッカーバーグCEOが議会で何を語ろうとも)。人間はいつだって、最高のアルゴリズムを出し抜く策を考え出すものだ。さらに、この問題は悲しむべきことに、フェイスブックの壁などをはるかに通り越して広がっているのだ。