Facebookライブに自殺防止機能が追加されたが、すぐに「死にたい」と口にする人がいるため、機械学習で判別するのは難しいとされる。疑問視する専門家もいるが、限定的な効果を期待する専門家もいる。
フェイスブック・ライブ(ライブ映像をSNSのフォロワーに発信できる機能)の一般公開から約1年、何人かが自分の映像をシェアしながら自殺した。1月に児童養護施設のトイレで首を吊ったフロリダ州の14歳の少女もそのひとりだ。
フェイスブックはこのような悲劇を避けるため、3月1日に自殺のライブ中継を防止する機能を公開した。たとえば、フェイスブック・ライブで発信している友だちが自傷や自殺しそうな場合に視聴者が通報すると、ライブ映像を発信中のユーザーにメッセージが表示され、電話相談や友だちと話す機能が提供された。フェイスブックは同様なツールをすでに提供中で、自分の友だちが投稿した近況が心配な場合、通報できる。
だが、この種の介入は役に立つのだろうか? フロリダ州立大学のテクノロジー・精神病理学研究所を運営するジョー・フランクリン助教授は、こうした機能は正しい方向ではあるが、特に有効だと示す重大な科学的証拠はないという。
「悪いことだとは思いませんし、研究すべきだと思いますが、すぐに疑問が湧いてきます。私にはこれが効果的とは思いません」(フランクリン助教授)
自殺の予防を研究するノースカロライナ州立大学のウィラ・カステベンス准教授は、若者はソーシャルメディアで交流することに慣れているので、若者には、この種の介入が肯定的に捉えられるのではないかと期待している。
「いざというとき、差しのべた救いの手が山を動かし奇跡を起こすことがあります。問題は、まだ救いの手にすがりたいと感じられる状況にその人がいるかどうかでしょう」(カステベンス准教授)。
フェイスブックは3月1日、パターン認識により投稿に自殺の意図が含まれるかどうか判定する実験をしていることも公表した。フラグ付きの投稿をフェイスブックのコミュニティー運営チームが確認し、投稿者に手を差し伸べるかどうかを判断する。
フランクリン助教授は、機械学習で医療記録をデータマイニングし、その人の自殺企図のリスクを判定する方法を研究している。フランクリン助教授は、ツールは規模の拡大が非常に簡単なので、将来はフェイスブックのような方法で自殺を発見できるようになると考えている。機械による判定は人間の通報よりも正確だと考えられるが、フランクリン助教授の研究によれば「自殺」や「死にたい」のような表現は口語的によく使われるため、その人が本当に自殺したいと思っていることをアルゴリズムでうまく見分けるのは難しいとわかっている。
それでも、「自殺を考えている人を見つけ出そうとする点では、大きな前進です」とフランクリン助教授はいう。