news center

控制数据就能控制思想,facebook泄密告诉你的真相

控制数据就能控制思想,facebook泄密告诉你的真相

作者:南圻怍  时间:2017-12-07 03:08:19  人气:

算法的复杂性、不透明性导致了一个“黑箱社会”的形成在这个“黑箱社会”里,真相只有被“局内人”所掌握,公众对算法理解得越少,就越难以接触到事实的真相 在经历5天的数据丑闻之后,美国社交网络公司facebook CEO 扎克伯格终于在3月21日(美国当地时间)打破沉默,首次发声,为5000万用户数据泄露道歉 在此数日前,英美媒体披露,数据分析企业剑桥分析(Cambridge Analytica)未经授权,获取facebook上多达5000万用户的信息,并将之用于预测和影响2016年美国总统大选的选民投票这一事件成为facebook创建14年以来最大的用户数据泄露事件之一 ▲Facebook创始人兼CEO马克·扎克伯格发布声明 在声明中,扎克伯格承认了平台曾经犯下的“错误”,并且提出为了阻止用户信息被利用,接下来将做出改善措施,以重新获得用户的信任 可操控的数据 对于facebook而言,用户的信任至关重要,因为这是facebook的商业运作逻辑,是它的生存根本 有人曾计算得出,facebook上的每个用户能够为其带来2.76美元的收入而这些收入的实现,则是通过对用户特征的准确分析,进而实现精准的广告投放 因此,我们不难发现,无论是剑桥分析公司通过大数据分析影响2016年美国大选,或是facebook通过用户研究实现精准的广告投放,都说明了一个基本事实,即大数据提可操控的,人的思想、意识和行为方式,都可以通过数据的过滤及呈现,进行控制与干扰 通常,大数据分析会被视为帮助人们更好作出决策的工具,尤其是在商业上,基于大数据和人工智能技术产生的智能投顾、智能决策等产品不断涌现,但对于大数据可被操控这一现实,却似乎被人们普遍遗忘 此次facebook的数据丑闻暴露出了大数据分析完全有可能被作为恶意武器,成为操控决策的工具 数据隐私保护被忽视的问题 面对这样的事实,如何保护数据隐私再度成为公众讨论的焦点但这些讨论中却又常常忽视了另一个问题:即数据的使用和处理,是否也属于数据保护的范围以及如果是,该怎样做才能起到保护作用 以欧盟历经4年讨论,即将于今年5月25日生效的《统一数据保护条例》(GDRR)为例,它同样是基于数据的采集、使用许可及数据使用目的进行立法从全球范围来看,欧盟的《统一数据保护条例》进一步强化了数据保护措施,强调对自然人数据的尊重 比如公众有权利要求各种系统、应用程序停止记录和使用自己的行为数据,并且,即使这些行为数据被采集之后,也不能永久保留,其时限最多为一年半同时,用户可以要求相关企业将其数据彻底删除换句话说,用户可以选择让自己从互联网上“消失” ▲Facebook官方发布声明,提出防止用户数据被滥用的举措 此外,为了避免造成潜在的歧视,该条例还要求不得将敏感数据用于智能决策所谓的敏感数据包括种族、政治倾向、宗教信仰、健康、性生活、性取向的数据,或者可唯一性识别自然人的基因数据、生物数据 尽管如此,这一条例在应对如此快速增长的数据世界时,恐怕仍然捉襟见肘虽然它从根本上强调用户对其自身数据拥有相应的处理权,可以选择删除,可以拒绝被采集但在实际上,用户如果拒绝数据被采集,其结果往往意味着同时失去使用软件或应用程序的关键功能因此,事实上用户的选择权相当有限 算法造就的“黑箱社会” 再者,如果不能清楚地知道自己的数据如何被使用,被用于何处,那么用户这种选择权同样也将毫无用处 虽然欧盟这一条例强调用户拥有选择权,并且要求进行数据分析的算法可被理解,但在现实中,相关的人工智能算法或大数据分析算法,往往是企业重要的商业机密根据商业秘密保护的规定,算法程序拥有相应的产权,可以无须公开披露的因此,欧盟《统一数据保护条例》最终实施效果如何,恐怕还需要时间加以证明 但在此之前,我们可以想象得到,算法不公开将必然导致的一个结果,即是追究责任上的艰难如果用户不能知晓具体的分析算法是什么,以及该算法具体使用其数据,那么必然导致用户无法判断其数据是否正在被滥用即使怀疑自己遭遇到算法的不公平对待,由于算法的难以理解或企业拒绝公开,用户也往往无法就此提出控诉,导致用户无法维护其权益 ▲facebook创始人马克·扎克伯格 可以说,正是算法的这种复杂性、不透明性导致了一个“黑箱社会”的形成在这个“黑箱社会”里,真相只有被“局内人”所掌握,公众对算法理解得越少,就越难以接触到事实的真相与此同时,“黑箱”的存在,也让相关人员掌握了欺骗公众或隐藏真相的能力,让其轻易拥有编造各种理由以应对调查的可能 所以,保护数据隐私,不仅仅涉及数据的采集许可及其目的使用的限制,同样需要对其使用过程,以及使用算法,有着清晰、明确的边界和能够被严格理解的基本要求 当然,上述悲观的论述不应该成为我们拒绝科技进步的理由毕竟借助大数据和人工智能算法、技术进行数据分析,挖掘数据价值仍然是大势所趋并且,由于大数据所带来的潜在危害,背后都是人为因素在作怪,因此,这些危害在很大程度上也是可避免的,关键在于首先要确保进行大数据分析的数据集是高质量的,