このページの本文へ

本当にいいの? インスタが投稿の再考促す新機能、AI活用で

2019年07月12日 12時33分更新

文● Karen Hao

  • この記事をはてなブックマークに追加
  • 本文印刷

インスタグラムは不適切なコメントに対して、投稿前に再考を促す新機能を導入する。

ネットいじめは、その程度やニュアンスが多様であることから、いつも複雑な問題となっている。どこまでを検閲対象とすべきか? 議論は尽きない。フィルターを厳しくしすぎれば表現の自由を侵害することになり、緩めすぎれば憎悪に満ちた環境を生んでしまう。加えて、異なる言語や文化、規範の複雑さから、問題は実にやっかいだ。

そのため、フェイスブックなどのソーシャルメディア・プラットホームは、人工知能(AI)の力を借りて膨大な量の投稿やコメントを選り分けようとしてきた。だがAIにとって、言語解析はとりわけ難しい課題だ。両義語や皮肉などの単純な問題や、単なるスペルミスでも、システムが解釈を誤ってしまうことは多い。誤りを避けるために、フェイスブックは何千人ものコンテンツ・モデレーターを採用し、アルゴリズムが判断を誤ったときに人間が最終判断をする体制を取っている。だが、コンテンツ・モデレーターの過酷な仕事ぶりが複数の調査により明らかになっている。

フェイスブックが運営するインスタグラムはいま、新たなアプローチに取り組んでいる。不快なコンテンツの検閲をアルゴリズムに完全に任せるのではなく、ユーザーによる自己検閲を促す仕組みだ。コメントの投稿時に問題があるとAIが判断すれば、「本当にこの内容で投稿しますか?」とポップアップを表示する。

7月8日、インスタグラムは事前テストの結果、この機能により多くのユーザーがコメントの投稿を中止したとブログで発表している。コンテンツの監視にあたる人間の負担を軽減しつつ、制限が過度に厳しくなることを避ける賢い手段だ。

インスタグラムがAIを使ってコメントの規制を試みるのは、今回が初めてのことではない。2017年6月に導入した不適切なコメントに対するフィルター機能は、機械学習を使って明らかに悪意のあるコメントを非表示にした。 その後もユーザーにより報告されたコメントから生成された何百万というデータ・ポイントを活用し、機械学習モデルを改善し続けている。今回の新機能でも、誤って不適切だとAIに判断された場合には、ユーザーはインスタグラムに報告できる。このフィードバックはまた、有益な訓練データの生成に活かされることになる。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ