世界最大のソーシャル・メディアの運営企業が問題のあるコンテンツに対処できないなら、ユーザー発信型メディアのルール順守には別の方法が必要だ。しかし、第三者機関に審査を委託するにしても人工知能に任せるにしても、まだ完全ではない。
ねつ造ニュース対策を進めるフェイスブック投稿される不快なコンテンツをもっと迅速に排除するよう、別の分野でも批判されている。
BBCによる調査で、フェイスブックは子どもに関する性的コンテンツの存在が報告されても、すぐには投稿を削除しないことがわかった。BBCは子どもの性的画像や「あからさまに子どもに性的関心のある男性向け」のページなど、100件の投稿について、Facebookの通報ボタンで問題を報告した。しかし、最初の通報で不快とみなされ削除されたのは18件だけだったのだ。
フェイスブックによると、その後「違法または弊社の基準に合致しない画像等をすべて削除」し、一部は警察に報告したという。しかし、この報道を受け、フェイスブックがサイトに表示されている不適切なデータに十分対応しているのか、懸念し始めた政治家もいる。
起こるべくして起きたことかもしれない。8日のウォールストリート・ジャーナル紙の記事は、フェイスブックはBBCによる調査があった時期、ライブ映像を配信する新機能の準備を急いでおり、従業員には、不適切なコンテンツの対処方法を検討する時間はほとんどなかった、というのだ。実際、ライブ映像は今でもフェイスブックが機能向上にいそしんでいる課題だ。このふたつのニュースは、フェイスブックがユーザーを不快なコンテンツから守るためにできることを、完全にはできていないことを示している。
問題のあるコンテンツの摘発は、フェイスブックにとって新しい問題ではない。Facebookは以前にも、若者を急進化させ、テロ組織に感化させ、参加を促すコンテンツの受け入れ先になっている、と激しく非難された。
マーク・ザッカーバーグCEOは以前、人工知能が将来この問題のいくらかでも解決してくれれば、と釈明したことがある。しかし、ねつ造ニュースの問題と同様、単純にテクノロジーで解決できる問題ではない。そもそも問題のあるコンテンツを正確に見分けるように機械を訓練する方法が不明だし、投稿が主観的な意見の表明であれば、言論の自由や検閲の問題にも発展し得る。ねつ造ニュース対策や児童ポルノでは、人間が緻密に関わり、検査過程の一部になり続けることもあり得るが、膨大な量のデータの確認に、どれだけの人数が関わればいいのかわからない。
ザッカーバーグCEOは最近、自身が望む世界を構想した。その世界では、ザッカーバーグCEOが所有する最強のソーシャル・ネットワークは、世界をよりよい場所にするため、国境をなくし、地域社会を結び付け、ひとつの大きな、幸せな世界的Facebookファミリーを実現することになるのだ。構想の一部として、Facebookをできるだけ安全で友好的にするとも誓った。だが、ザッカーバーグCEOの努力がすぐに実を結ぶことはなさそうだ。
(関連記事:BBC, Guardian, Wall Street Journal, “Facebookは人類全体の社会インフラを目指すと宣言,” “Facebook Will Try to Outsource a Fix for Its Fake-News Problem,” “Fighting ISIS Online’)