科技伦理-隐私的数据边界

郑磊 原创 | 2019-08-09 12:53 | 收藏 | 投票

 (为粤港澳金融科技师培训教材编写的“技术伦理”章节部分内容)

随着现代信息技术的社会应用和虚拟交往空间的拓展,普适计算、物联网、大数据、云计算得到快速发展,将人类带入一个透明化生存的时代。目前,大数据服务广泛应用于金融机构、电商平台,金融大数据是指集合海量非结构化数据,通过对其进行实时分析,可以为互联网金融机构提供客户全方位信息,通过分析和挖掘客户的交易和消费信息掌握客户的消费习惯,并准确预测客户行为,使金融机构和金融服务平台在营销和风控方面有的放矢。比如部分银行采用大数据信贷风险评估模式,通过既往资金流水、信用卡使用情况等作为判断依据,对不同授信额度的人群进行纯信用贷资金发放;以小额信贷为代表的平台模式,对平台用户进行贷款融资,从中获得贷款利息和促进消费所带来的企业收益。大数据技术对金融行业的影响巨大,其积累了大量的客户交易和资金往来数据,实际应用前景非常多样。

新的信息技术正在逐步构建新的社会基础结构,影响着人们的生活与发展。在给人类带来效率和文明的同时,也产生了一系列以前不曾出现过的伦理道德问题,集中表现为信息欺诈、信息侵权、信息犯罪以及信息利益冲突等。“在线”将成为一种常态和习惯,人们的行为、轨迹、信息甚至那些深入我们脑海中的一些想法,未来都可能随时被感知、被发现、被搜集、被分析、被利用,隐私似乎变成了一种不现实的奢望。

特别是伴随着大数据技术和复杂性科学的兴起,大数据技术和复杂性技术所带来的思维转变主要表现为解决由计算机技术、网络技术与信息通讯技术所带来的伦理问题与隐私困境。人类不得不考虑如何在透明化时代里生存,隐私权这样的伦理原则可能会被彻底颠覆。人们是否享有平等的信息权利?信息权利应当在什么范围内予以限定?并且按照什么原则来实现信息权利和义务的分配正义?

美国的信息管理科学家梅森针对当下的信息伦理问题提出了四个伦理议题[1]:一是信息隐私权(Privacy),即处于信息社会中个体具有隐私权,并不得侵犯他人的隐私;二是信息准确性(Accuracy),即处于信息社会中个体享有使用正确信息的权利;三是信息产权(Property),即处于信息社会中个体有权利享有自己生产和开发信息产品的产权;四是信息资源存取权(Accessibility),即处于信息社会中个体享有应得的信息权利。

学者们希望用一种多元的伦理准则来指导现实社会中的信息技术实践。拉里·贾德教授(LarryR.Judd,1995)[2]针对计算机技术和信息技术的主体行为提出了相应的三个指导准则:一是技术主体要承担自身范围内的责任;二是在承担责任的基础上能够预料在使用计算机技术和信息技术中所产生的消极影响;三是以正义原则为指导,确保技术主体在从事与信息有关的技术活动时享有平等的待遇。塞文森(RichardW.Severson)也对技术主体的伦理责任进行分析,认为在信息社会中应该遵守以下四个伦理准则:—是尊重知识产权,包括社会个体本身的知识产权和他人的知识产权;二是尊重隐私,做到在保护自身隐私的同时也不侵犯他人的隐私;三是公平参与,保证在信息获取、传播和使用过程中的公平公正;四是无害原则,即社会个体自身的信息行为应当不构成对他人的妨害。

 

(一)数据产权与隐私保护

大数据本身就意味着共享,众多领域的数据共享是大数据时代的前提和关键特征之一,也是隐私失控的开始。[3]数据的开放共享只是大数据技术得以实现的一个方面。除此之外,它还包括通过数字化技术获取和存储数据,通过大数据平台对海量数据进行深度挖掘、预测以及反馈等更为深度和实质性的数据占有与使用。目前,这种获取和使用数据的方式,可以通过深度机器学习做到完全智能化。就大数据的占有和使用方面而言,大数据技术加上机器学习,不仅在数据共享方面,而且在数据深度挖掘方面,把个人信息保护和数据权的确权问题都交给了“算法”,这是一个值得关注的、更为深层次的问题。信息的访问和获取提出了一系列涉及公正性的问题。数字化差别指的是这样一个事实,即世界上存在所谓的信息富人和信息穷人之分这种现象不仅在一个国家里,而且在国家间也存在(Waschauer,2003)。倘若我们把信息看成一种社会的基本财富,那么就像收入分配一样,这种财富在很多国家是分配不均的。2003年日内瓦和2005年突尼斯的信息社会全球高峰论坛(WSIS)期间,人们提出把采取措施消除信息获取的不公平现象当作发展中国家的道德义务来认识。

大数据技术带来的伦理问题主要包括以下几方面:

一是隐私泄露问题。大数据技术具有随时随地保真性记录、永久性保存、还原性画像等强大功能。个人的身份信息、行为信息、位置信息甚至信仰、观念、情感与社交关系等隐私信息,都可能被记录、保存、呈现。在现代社会,人们几乎无时无刻不暴露在智能设备面前,时时刻刻在产生数据并被记录。网络使用者留下的痕迹可以通过回溯推断技术来了解他的爱好、行为方式、思想观念和种种行为,并且使检视、控制成为可能。如果任由网络平台运营商收集、存储、兜售用户数据,个人隐私将无从谈起。

二是信息安全问题。个人所产生的数据包括主动产生的数据和被动留下的数据,其删除权、存储权、使用权、知情权等本属于个人可以自主的权利,但在很多情况下难以保障安全。一些信息技术本身就存在安全漏洞,可能导致数据泄露、伪造、失真等问题,影响信息安全。此外,大数据使用的失范与误导,如大数据使用的权责问题、相关信息产品的社会责任问题以及高科技犯罪活动等,也是信息安全问题衍生的伦理问题。

三是数据鸿沟问题。美国传播学家帝奇诺提出一个理论假说叫做知沟理论,在互联网时代,人们获得信息的途径更多的依赖网络,当你越多的接触网络,数字痕迹留存在网络就越多,网络运营商对你推送的有效信息也会越多,使用网络和不使用网络的鸿沟就会越来越大。一部分人能够较好占有并利用大数据资源,而另一部分人则难以占有和利用大数据资源,造成数据鸿沟。数据鸿沟会产生信息红利分配不公问题,加剧群体差异和社会矛盾。

当前的一个矛盾点,是数据利用和数据保护之间的矛盾。如果过度保护数据,会导致用户体验的受损,而“过度强调算法、过度强调个性化,有可能会造成个人隐私受到侵犯”。机构收集个人和公司数据有不同的目的,其中有很多是商业的需求。收集数据的多寡和需要是一个很重要的考虑。从商业机构的角度,通常做法是收集比较多的数据,但是这些数据是否必要收集,以及这些数据收集之后的归属,也是一个比较模糊的问题。在主观层面上,个人数据权利边界模糊成为威胁信息安全的助推器。在数字化技术不断革新的社会里,为了确保社会系统信息资源和设施建设的有效运行,实施社会控制的政府(或社会机构)需要持续不断地收集个体的大量数据。现实情况是,个体总是倾向于在社会赋予的权利范围内保留自主的空间,个体保持独处的偏好与社会组织收集个人信息的愿望相冲突。这就引发了一个难题,社会组织程度与个体权利孰轻孰重的问题。如果一个社会期望达到更高的组织程度,不可避免地要收集大量个人数据并用于公共服务,相应的就要以放弃部分个人保护数据权利为代价。

个人隐私是一种不受侵犯和干扰的权力。[4]长久以来,隐私被视为一种与公权相对立的私法性概念,隐私权被视为一种绝对的“自治权”,即“不受别人干涉的权利州9、“自然人对于私人信息的自我控制,不被非法利用,私人事务自主支配,不受侵扰和私人活动自主决定,不受侵犯秘密的自由权”、“自然人享有的对其个人的、与公共利益无关的个人信息、私人活动和私有领域进行支配的一种人格权。” [5] 收集信息资料不能损害别人应受到保护的利益,不能损害道德规范和价值。

隐私权遭受的挑战在信息处理的各个环节都存在:一是在信息采集过程中对隐私的侵犯。通过连接到互联网和物联网,各种以传感器为代表的感知设备在数量上呈现爆发式增长,并以更为隐匿的方式嵌入到信息社会环境当中,无时无刻采集大量数据。这些信息共享功能为隐私的传播提供了新的途径,其背后真正的目的就是厂商或者组织机构对使用者数据的收集。二是在信息储存过程中对隐私的侵犯。云计算等技术的应用降低了信息的储存成本,随着存储成本不断下降,大量信息被采集后有可能成为永久的记录。而信息再利用也会对隐私安全带来威胁。三是信息使用过程中对隐私的侵犯。数字化、互联网和物联网将传播信息和获取信息的成本最小化,使得监视变得容易,扩大了社会的监视范围。一般信息与关键信息、敏感信息的界限越来越难以界定。

信息采集和使用本来需要经过当事人的知情同意才可以进行,在这种情况下,人们可以清楚地知道自己的私人信息在何时被获取、并且被何人获取、获取的方式又是什么。在大数据技术下,由于信息之间的共享机制变得透明化,侵权主体变得具有隐匿性,我们不知道自己的隐私在何时被泄露、泄露者是何人、以何种方式被泄露,这大大增加了我们保护隐私的难度。即便数据使用者也无法精确预知并征得数据主体的知情同意。数据所有者同样无法预知被收集的数据将可能被用于何种目的。人们越来越难以分清的个人隐私抑或是个人信息不可避免地被“数字化”,并不断汇聚,最终成为大数据的一部分。[6]将这些零碎的、不起眼的个人信息,通过数据挖掘整合技术能够实现对数据的多维度、全方位利用。[7]在知情同意机制不再有效的情况下,个人隐私风险也随之加剧。

如果网络信息自由变得漫无边际、不受网络道德规范的制约,那么社会个体的合法权益将无法得到保障。因此,对网络信息自由要在合理限度内予以限制,并实现网络信息的实质自由。随着大数据技术的进一步应用,我们需要制定专门的法律制度和伦理规约,以此来保护大数据技术下社会个体的隐私安全。学术界普遍认为,应针对大数据技术引发的伦理问题,确立相应的伦理原则。一是无害性原则,即大数据技术发展应坚持以人为本,服务于人类社会健康发展和人民生活质量提高。二是权责统一原则,即谁搜集谁负责、谁使用谁负责。三是尊重自主原则,即数据的存储、删除、使用、知情等权利应充分赋予数据产生者。现实生活中,除了遵循这些伦理原则,还应采取必要措施,消除大数据异化引起的伦理风险。

亚当·穆尔(Adam.Moore)也在《信息伦理:隐私权、产权和权力》一书中指出应给对信息伦理包含“应用性伦理、知识产权、隐私权”等一系列内容提出了相应的解决方法。[8]摩尔提出了关于隐私政策制定的指导原则:一是公开原则,要求明确关于自然隐私和规范性隐私的相关条件,并且让利益相关者知晓。如果社会个体清楚地知道隐私信息的范围有多大、隐私信息的条件是什么、以及谁最可能获取到这些隐私信息,那么他们就可以依据这些隐私信息的限定条件更好地保护隐私。二是关于例外原则的论证,主要是指在极其个别的情况下,如果透露信息的危害远远小于不公开信息所造成的负面影响,那么这种情况在道德范围内也会允许的。三是修正原则,主要是对以上原则的自我调整。如果具体的情形可以证明,对衡量隐私状态指标做出调整和修改的行为是有其合理性的,那么这种调整和修改的行为也应被视作一种公开的内容。

在提高个人隐私保护方面,个人需要强化具有明晰边界的个人信息保护意识。随着大数据时代的发展,人们可以自由选择使用技术的行为,但一个重要的问题是,人们需要清楚地知道隐私信息的范围、隐私信息的条件以及可能获取这些隐私信息的人或者社会机构,需要清楚地知道个人隐私的权利边界,这样才能根据这些条件合理地保护社会个体的隐私权利不受或少受侵犯。

(二)数据使用的伦理

大数据技术像其他所有技术一样,技术本身没有“好”与“坏”,数据应用领域非常广泛,然而使用大数据技术的个人、金融公司有着不同的目的和动机。因此,从伦理学视角来看,大数据技术在瞬息万变的金融业应用更要预防潜在风险或叫伦理问题。

在金融业信贷风险评估方面,评价金融风险可以使用很多数据来源,如:客户经理、手机银行、电话银行、网络信息、电子商务信息等,也可以包括信用评级部门或者机构的数据。在风险分析模型下,大数据分析可帮助金融机构预测金融风险。Kreditech信用评估服务是一个很好的应用例子。Kreditech是一家德国公司,它通过使用专有的算法和技术,提供广泛的定制金融服务,尤其是该公司利用大数据分析收集和处理客户的财务数据,并为市场提供完全创新、高度定制的服务。Kreditech使用一种创新的自学习算法来分析大型数据集。外,在保险业、互联网金融等行业,大数据手段可以建立报下欺诈识别模型,筛选疑似诈骗索赔案例,再展开调查,提升调查效率,降低成本。它还结合内部、第三方和社交媒体等数据进行异常值检测,包括客户的健康情况、财务状况、理赔记录等,及时采取干越措施,减少赔付。互联网金融平台通过对出入金、支付渠道和资金流水等行为数据的研究,对客户进行市场营销、金融的产品创新及满意度分析,还通过建立大数据自动评分模型、自动审批系统和催收系统,弥补无信用记录客户的缺失信贷数据,降低纯信用贷的逾期风险。

云服务技术是以数据为基础的行业,大量的交易、客户、投资等数据都为金融业大数据的应用提供了丰厚土壤,大数据和金融行业的协同发展不仅是天然结合,也是业界共识。众所周知,金融行业对业务连续性有着非常严格的要求,它的实现涉及到管理制度、技术方案和物理设施等多个层次,要确保这些关键职能在任何环境下都能持续发挥作用,这就使得金融机构对IT系统的稳定性、可用性、网络时延性以及数据安全性具有更高的要求。银行、券商等金融机构的关键业务在若在服务时段停机10分钟以上,就属于极度严重的事故,会造成巨大的经济损失。为支撑金融业务和交易快速发展和拓张,金融机构都采用全分布式金融数据基础架构。金融机构倾向使用混合云,对于非关键业务和数据更倾向于将全部系统都放在公有云上。

云技术应用中的稳定性、可靠性、数据的安全性都引申出一些道德和伦理考虑。对于信用云、医疗云、文化云等具有公共服务性质的应用来说,其庞大的数据库往往涵盖百万级乃至千万级的用户,身份信息、医疗记录等数据价值很高,很可能是网络攻击的重点目标。数字身份是一个人在网络时代的符号,也是金融参与者的唯一标识,它是一个人所有可以在网络空间获取的金融信息总和。数字身份具有极强的商业价值,大数据在整合抓取个人信息、交易信息、资金流时,很容易出现信息泄露,个人数字身份被盗取等问题。恶意行为者会通过伪装成合法用户、运营人员或开发人员来读取、修改和删除数据;获取控制平台和管理功能;在传输数据的过程中进行窥探,或释放看似来源于合法来源的恶意软件。怎样确定有关机构能够从身份认证开始、职权分离、数据保护等各流程、各环节都投放资源和完善管理是一个比较艰巨的工作。

数据泄露的风险并不是云服务所独有,但是它的规模非常庞大,一旦出现事故,影响非常巨大。以美国征信巨头Equifax 2017年受到黑客攻击为例,直接导致1.43亿美国公民信用信息泄露,泄露信息包括个人信息,例如姓名、住址、出生日期、社会保障号、驾照信息等,其中在声明中有确认,起码有20.9万人的信用卡号码被盗,18.2万人的个人识别信息被窃取。出事后的责任归属,现在更多是归咎于黑客的作为,但是企业、系统公司、安全顾问公司、云公司、操作人员等的责任,不管是道德上还是法律上,都需要有比较清晰的界定和完善,让信息的数据的影响方,很多时候是小个体有更多的保障。

海量个人数据具有极大的商业应用价值,孕育了一个被视为“数据淘金”的庞大产业。一方面,一些收集数据的机构通过出售相关产品和服务满足个体参与者的要求,并提供“私人订制”服务;另一方面,这些机构通过数据挖掘了解个体参与者的偏好并出售给第三方获得利益。在“数据有价”的数字化时代,需要赋予个体数据的知情权和财产权,不仅要保护其数据权利不受侵犯,更要从伦理角度进行反思,保障信息利用的公正性。

在信息自由问题上,伦理学的挑战在于,技术参数的确定从根本上是共同决定了特定的公正观念是否以及在怎样的程度上能够得到实现这就大大增加了设计技术当事人的责任(Karsten Weber)。技术人员负有设计使滥用可能性最小化的技术产品的道义责任,因为信息和通信技术的复杂性和透明度是成反比的,开发者不能将自己对系统安全的责任以使用者责任自负的借口一推了之。唯有如此,使用者才有可能对所产生的风险进行判断,并自己决定是否愿意承担此风险。

大数据完全可以通过分析你的数字身份而在现实生活中或在商业经营活动中将你定位。比如,你曾在基金超市做过风险测评,搜索关键词“货币型基金”,当你再次浏览网页时,广告栏就会用图示链接形式向你推荐各种货币型基金产品,可你并不需要这种无用的碎片化信息。这种利用数据的预测性行为强制性占用了消费者有限的注意力。在这种情况下,个人可以主动避开这类商业推送,但是在有些消费活动中,商业机构不仅无偿利用了属于个人的数据,而且可能用于对消费者不利的商业行为之中。大数据“杀熟”就是这样一个典型例子。

 

案例:大数据杀熟

有媒体报道某网友经常通过某旅行服务网站订酒店,价格一般在380-400元,但一次使用朋友的账号预定时,发现只需300元,而这个朋友使用该网站的频率很低。“大数据杀熟”随之成为网友热议的话题。同样的商品或服务,老客户看到的价格反而比新客户要贵出许多,这在互联网行业被叫作“大数据杀熟”。调查发现,在机票、酒店、电影、电商、出行等多个价格有波动的平台都存在类似情况,且在线旅游平台较为普遍。

“大数据杀熟”现象或已经持续多年。近日有媒体对2008名受访者进行的一项调查显示,51.3%的受访者遇到过互联网企业利用大数据“杀熟”的情况。59.2%的受访者指出大数据面前信息严重不对称,消费者处于弱势;59.1%的受访者希望价格主管部门进一步立法规范互联网企业歧视性定价行为。[9]在一些网站,大V在客服投诉等方面甚至享有特权。同时,还存在同一位用户在不同网站的数据被共享这一问题,许多用户遇到过在一个网站搜索或浏览的内容立刻被另一网站进行广告推荐的情况。

大数据杀熟在经济学上属于价格歧视行为,是大数据与算法结合的结果,针对价格敏感人群,大数据分析系统会自动提供更加优惠的定价。而这类系统对于对价格不敏感的人则要求支付更高的价格。“大数据杀熟”,固然可以说是商家的定价策略,但最终形成的所谓“最懂你的人伤你最深”的局面,确实与人们习以为常的生活经验和固有的商业伦理形成了一种可见的冲突。

大数据杀熟的一个伦理问题在于其隐蔽性,这与传统的差异定价不同。比如一瓶同样品牌的矿泉水,在超市只卖5元,而在五星级酒店消费则需要支付30元,这个消费选择是由客户自己做出的,明码标价,自愿消费,在现实中已被普遍接受。而“大数据杀熟”则不同,多数消费者其实是在“不知情”的情况下“被溢价”了。还有一种情况是,被溢价的消费者虽然知道,但却感到非常不公平。比如,一些在线商家和网站标明新客户享有专属优惠,用来吸引新客户,而老客户则需支付高于“优惠价格”的金额,甚至越是老客户价格越贵,这显然背离了一种朴素的诚信原则,也辜负了老客户的信赖,是对文明商业伦理的扭曲,并不值得提倡。

大数据环境下,企业掌握着消费者身份、职业、喜好、消费经历、支付能力、支付意愿等海量数据,能轻易对用户进行数字画像,精准获知每一消费者所能承受的价格,并依此对消费者“贴标签”,制定不同营销策略,进行个性化营销。算法消除了企业无法获知个体消费能力的营销障碍,改变了“同物同价”的传统定价模式,使商品价格取决于每位消费者对该商品的主观定价。正如此,经营者为实现利益最大化,针对不同消费者制定不同营销策略,算法杀熟应运而生。

本质上说,大数据技术并无原罪,尽管这一定价“潜规则”是依据大数据所形成的用户画像和消费习惯进行的精准溢价,但是大数据算法本身既可以实现溢价也可以进行精准优惠定价。“杀熟”行为归根结底是一种商业套路,是由商家采用了损害个体权益的算法而造成的,在某些国家或地区,可能会违反有关消费者权益保护、价格管理等方面的规定。

  对于价格歧视做法,不同国家的法规是不同的,但从伦理角度看是不足的,诚信、透明、公平的市场交易环境和对应的市场伦理—无论是线下还是线上,都应该是社会所应该追求和呵护的。



[1]Mason,R.O.Fourethicalissuesoftheinformationage[J].MISQuarterly,1986,10(1)

[2]JuddLR.AnApproachtoEthicsintheInformationAge[J].PublicRelationReview,1995,21(1)

[3]薛孚,陈红兵.大数据隐私伦理问题探究[J].自然辩证法研究,201 5(2)

[4] 1890年塞缪尔·沃伦和路易斯·布兰迪斯发表论文“隐私权”,参见技术伦理学手册(阿明格兰瓦尔德主编,社会科学文献出版社,2017

[5] Warren and Brandie sThe Right to PrivacyHarvard Law ReviewVolIVDecember15,1890No.5;杨立新,人格法,中国法制出版社,2006

[6]龙小农,“全视之眼”时代数字化隐私的界定与保护,新闻与法律,2 014(8)

[7]数据挖掘加剧隐私泄露风险,正如信息技术专家亨特(Hunter)所说:我们的革新将不会是在收集数据方面,而是在分析已被同意共享的信息方面。我们每一个人都是自身数据的合法拥有者,来自于我们的各种数据必须进行整合,才能看到价值。

[8]MooreAD.InformationEthics:Privacy,Property,andPower[M].Washington:UniversityofWashingtonPress,2005

[9] 参见https://baijiahao.baidu.com/s?id=1629239679189502246&wfr=spider&for=pc

个人简介
行为经济学者,创新发展,金融投资专家,南开大学经济学博士,荷兰maastricht管理学院mba,兰州大学数学学士 email:prophd@126.com
每日关注 更多
郑磊 的日志归档
[查看更多]
赞助商广告