【Facebook、ユーザー約70万人のニュースフィードを操作した実験結果論文を発表】
ホントFBはなんでも有りだよな。こんな姿勢だから、メッセージアプリの買収で100万単位のユーザー流出が起きるほど信用されていないんだろうけど。
→Facebook、ユーザー約70万人のニュースフィードを操作した実験結果論文を発表 - http://t.co/tG4ROHp5nz
— Yasuaki Madarame (@madarame) 2014, 6月 29
引用してきたFacebookの実験はざっとまとめると「勝手にFacebookのニュースフィードを操作してその結果利用者がどんな反応を示すのか実験して結果が出たよ。でも「データの使用に関するポリシー」に準拠してるから問題ないよ、そうだよね」ということになる。そして記事にも「この実験操作で本来閲覧できるはずだった投稿を見逃していた可能性は高い」「法的規制は無いが倫理的に心理学の実験では事前に被験者に通知すべきではないか」との問題点や疑問が呈されている。
FacebookやGoogleなどのウェブサービスを提供する技術系企業において、その技術が非常に優れていることに違いは無く、またそれだからこそ伸長していることにもなる。しかし一方で今回指摘されている通り、その技術をつかさどる「人間」そのものの性質、倫理観、規範が技術同様に優れているとは限らない。「データの使用に関するポリシー」に準拠しているとは研究側の自論ではあるけれど、これとて法的解釈次第ではどのような判断が下されるか、確定出来ているわけではない。何より被験者にとって、これが気持ち良いものか否かを考えれば、正当性の上で疑問符を呈しても当然というもの(これって要は利用者側の感情コントロールを行えるってことだよね。しかも「社会実験ですからキリッ」という大義名分を呈すれば、その対象が何人であっても...それこそ会員全員でも...無問題ってことになってしまう)。
技術的に優れているから、それに頼りたくなる、絶大なる自信を持つのは理解できる。しかしそれをまっすぐに信じて頼り切り、それのみを一義的なものとして、それ以外のものには目をくれずに優先順位を落とすような考え方、意思決定手法を繰り返していると、いつの間にかその技術に振り回されるだけの存在になる。何か問題が生じても、「自分達の責任では無く、この技術による結果なので問題は無い」というものだ。例えが雑になるけど、自動車事故を起こしても「自動車が悪いので自分の責任は無い」と主張するようなものでしかない。
方向性は異なるけれど【「自由」と「自由奔放」は別物、そして「歯止めなき力は正邪の別なく暴走する」】で挙げた「歯止めなき力は正邪の別なく暴走する」の言葉通りの話な気がする。そしてそれを戒めるためのポリシーが、例えばGoogleにおける「Don't be evil」(邪悪になるな。)であった気がするんだな。ここにはそもそも論として「何が邪悪なのか」を人間的、倫理的に思い返すことをも含まれている。
それが出来なくなった時、そこには何が残るのだろう。赤子に拳銃を持たせるような、そんな危険性をはらむ実態ではないだろうか。
コメントする