米Facebookは10月2日(現地時間)、社内で実施するユーザーを対象とする研究の審査基準などの改善について説明した。
この発表は、同社が今年6月に発表した約70万人のユーザーのニュースフィードを操作して実施した実験結果をまとめた論文が物議を醸したことを受けたもの。
この実験は、表示されるコンテンツの内容によってユーザーの感情が左右されるかどうかを調べる目的で実施された。Facebookはこうした実験は「よりよいサービスを提供する方法をさぐる目的だ」と説明したが、人権擁護団体やメディアは、実験がインフォームドコンセントの手順をとらずに実施され、ユーザーに無断でFacebookがユーザーを“モルモットにした”ことを問題にしている。
同社はこの3カ月、社内での研究方法について精査し、新たなフレームワークを構築したという。
まず、研究者に対して明確なガイドラインを示し、感情にかかわるような研究の場合は特に厳格な事前審査を行う。そうした審査は、研究者だけでなく、エンジニア、法務担当者、プライバシー&ポリシー担当者などで編成する審査委員会が行う。
さらに、研究者には毎年、プライバシーとセキュリティに関するトレーニングを義務付ける。また、研究の透明性を高めるため、研究論文をResearch at Facebookのページに一元的に掲載する。
同社は、「研究はより良いFacebookを構築するために役立っている。他の多くの企業と同様に、われわれのサービスは広範な研究や実験、テストに基いて構築されている。学術コミュニティーと協力し、学術誌に研究成果を発表することは重要だ。なぜなら、Facebookのようなオンラインサービスは、世界の仕組みについてより良く理解する助けになるからだ」としている。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR