その気になれば、簡単な方法が1つだけある。
ある研究チームが最近発表した論文には、2012年に行われた実験で、689,003人に及ぶフェイスブックユーザーの感情がいかにして操作されたのかが詳述されている。実験は、肯定的・否定的な投稿が、ユーザーの気分に影響を及ぼすかどうかを確かめる目的で行われていた。
影響は確かにあった。フィードに表示されるのが肯定的か否定的な投稿かによって、ユーザーは異なる反応を示し、投稿に関しても違いが生まれた。
一方でこの研究チームは、無意識のうちにチーム自らとこの研究を依頼したフェイスブックに関しても、ある実験を実施してしまっていた。それは「この実験の公表は、一般のフェイスブックユーザーや学者、科学者達の怒りを買うのでは?」というものだが、その後の状況からみて、その実験結果はもちろん、完全に「イエス」だ。
フェイスブックの実験
2012年1月、研究チームは1週間をかけて同時に2つの実験を実施した。一方の実験では、彼らはフェイスブックのニュースフィードのアルゴリズムを変更し、抽出されたユーザーのタイムライン上で、肯定的な投稿が減るように設定した。もう一方の実験では、否定的な投稿が減るように設定した。
「ソーシャルネットワークをにおける大規模な情動伝染に関する実験的証拠」と題された論文には、次の記述がある。
我々は、フェイスブックにおける大規模実験(N = 689,003)から、感情は他者へと伝染し、人々は共通の感情を無意識的に経験し得るという結果を得た。また我々は、人々の間に直接的な対話が無くとも(オンラインでの感情表現のやりとりを十分条件とする)、また非言語的なシグナルが一切無くても、オンライン上のテキストだけで感情は伝染することを示す実験的証拠も得ることができた。
実験は、コーネル大学やカリフォルニア州立大学サンフランシスコ校の研究者と、フェイスブックのデータサイエンティストであるアダム・クレイマーが共同で実施した。
ユーザーは自分がこの実験に「参加したか」どうかを知ることは出来ない。それは単にフェイスブックが参加者を無作為に抽出したことだけが原因ではなく、科学実験に参加している事実をユーザーには告知されなかったことも原因といえる。一般的に、科学実験の参加者にはインフォームドコンセントを行い、彼らは自身が実験データとして扱われることに同意し、実験が実施される期間を認識している。
ところが、実験に先立ってフェイスブックは被験者に同意を求めなかった。その代わりに論文は、フェイスブックユーザーであればアカウント作成時に必ず同意している「データの使用に関するポリシー」を根拠に、彼らを被験者として扱う権限があると主張している。
しかしポリシーの中には、科学的事由でユーザーの感情が操作されることに同意するといった条項は含まれていない。実際には、情報は「トラブルシューティング、データ分析、テスト、調査、サービスの向上等の内部運用」に使用されることがあるとしている。更にForbes誌のカシュミール・ヒル氏の指摘によると、2012年5月まではポリシーに「調査」の文言は含まれておらず、その数か月前から問題の実験は実施されていた。
メリーランド大学の法律学教授、ジェームズ・グリメルマン氏は、会社のサービス利用規約を根拠にユーザーから科学実験への同意を取り付ける発想は「インチキ」だと言う。
彼は取材に対し、次のように語っている。「私達が調査を行う際には、言葉での明示が重要だからこそ、インフォームドコンセントを行います。(フェイスブックは)表示されるコンテンツの操作について、一切公表していません」
被験者にならない為には
さて、ユーザーになった時点で、自分の情報が科学研究の材料として扱われることに同意したとフェイスブックが主張するならば、それから逃れる方法はあるだろうか?
そう、フェイスブックを止めればいいのだ。
Get off Facebook. Get your family off Facebook. If you work there, quit. They’re fucking awful.
— Erin Kissane (@kissane) Jun 28, 2014
「Erin Kissane:フェイスブックから退会して。家族も退会させて。もしフェイスブックに勤めているなら辞めるべき。それくらいこの会社は酷い」
プライバシー設定で他ユーザーによるプロフィールや画像の閲覧を禁止するように、ユーザーはフェイスブックがデータを使用しないよう設定することは出来ない。人々はユーザーだというだけで、人間の行動を分析する為にニュースフィードを操作する権限をフェイスブックに与えてしまい、自身の感情さえも操作されてしまう。
この論文で述べられているのは2年半前に実施された実験だということを考えてほしい。その間、フェイスブックは何をしていたのだろうか?あなたは今、将来明らかになるフェイスブックの実験用モルモットになってはいないだろうか?
「データの使用に関するポリシー」がある限り、そういったことはありえない話ではない。
フェイスブックにとって、ユーザーは単なるデータポイントである
当然のことながら、ユーザーが自覚しているか否かに関わらず、フェイスブックはユーザーの感情を操作する。問題の実験において研究チームは、ユーザーの気持ちが投稿内容にどんな影響を及ぼし、どうすればユーザーがサービスを利用し続けるのか追究していた。これと同じことが、広告宣伝でも行われている。
関連記事:ネット上から自分自身を消す方法
フェイスブックは無料のサービスだが、その利便性の対価は金銭ではなく、データによって支払わされている。全ての投稿、全てのデータを利用し、フェイスブックはユーザー個人の行動に最適化された広告宣伝を行うことができる。そして、そのデータとはもはやフェイスブックの投稿などに限られず、インターネット上での全ての行動が分析対象となっている。
フェイスブックの取締役のマーク・アンドリーセンなど一部からは、「情動伝染」実験はフェブックが行っている他の広告関連実験と何ら違いはないとの指摘がなされている。
Helpful hint: Whenever you watch TV, read a book, open a newspaper, or talk to another person, someone’s manipulating your emotions!
— Marc Andreessen (@pmarca) Jun 29, 2014
「Marc Andreessen:参考までに。私たちはテレビや本、新聞、会話においても、必ず何かしらの感情操作を受けている!」
ただし前述の実験とは違い、フェイスブック上の広告に関して言えば、私たちは何が表示されるか確認できる。広告は次々と画面上に現れて、しかもそれらは私たちの興味にぴったり沿っている。私達は自身の情報と引き換えに、広告費で運営されているサービスを利用している。そして、そのターゲティングから逃れる手段は多くない。
グリメルマン氏は言う。「交換条件を相手に示さなければ、交渉は成立しません。フェイスブックが要求する交換条件とは、広告の表示です。ユーザーは、フェイスブックが集めたデータが広告表示目的に使われていることを知っているのです」
結局のところ実験の目的は、ユーザーがフェイスブックで気分を害しても、利用し続けてもらう方法を発見することにあったと言える。
データサイエンティストのアダム・クレイマーはフェイスブックに次のように投稿している。
我々がこの実験を実施したのは、フェイスブックが人の感情に与える影響や、ユーザーを重要視しているからです。よく指摘される、友人のポジティブな投稿にユーザーがネガティブな感情、又は疎外感を感じるという懸念について調査することが重要だと我々は考えました。同様に、友人のネガティブな投稿がフェイスブックの利用を敬遠させてしまう問題にも関心を抱いています(強調表示は筆者が追加)。
フェイスブックにとって、これほど多くの人々の反感を買わずに同様の実験を行う方法は他にいくらでもあった。例えば、ソーシャルメディアが行動に及ぼす影響力実験について、もしもフェイスブックがユーザーに参加協力を呼びかけていれば、そもそも肯定的・否定的な感情操作についての倫理的問題は生じてすらいなかった。
先の投稿でクレイマーは「論文中の研究についての説明の仕方と、それによって生じたあらゆる不安」について謝罪し、「我々は有益な研究結果を得ましたが、それによってこの不安は正当化されないかもしれません」と認めた。
この研究は学術界とシリコンバレーのテクノロジー文化を繋ぐものだった。何年にもわたり、フェイスブックのスローガンは「迅速な行動が物事を動かす」だったが、それは明らかに、ユーザーの信頼をも揺るがしてしまった。
グリメルマン氏は言う「学術界とシリコンバレーの考えの間には大きな隔たりがあります。シリコンバレーのデータ使用の慣行には、倫理感が欠如していることが明らかになりました」
私たちは、フェイスブックにデータを差し出す代わりに、企業の広告を見ることに慣れきっている。そしてフェイスブックがプライバシーポリシーに未記載の目的でデータを活用すれば、10億以上のユーザーはその意志に関わらず、潜在的な実験対象にされてしまう。
この慣行をフェイスブックが改めない限り、あなたが実験対象になることを確実に防ぐ方法はたった1つ、フェイスブックアカウントの削除しかない。
トップ画像提供:Ludovic Toinel(Flickrより)
Selena Larson
[原文]
※本記事はReadWrite Japanからの転載です。転載元はこちら