道德算法与机器伦理

郑磊 原创 | 2019-08-08 20:00 | 收藏 | 投票

 (为粤港澳金融科技师培训教材编写的“技术伦理”章节部分内容)


发展人工智能已经成为许多国家的战略,但技术创新驱动有时要靠牺牲技术伦理来实现。随着大数据技术、人工智能以及其他新的信息技术的不断深入,信息技术己经内化为人的一部分,“信息人”、“网络人”、“赛博人”成为信息主体的常态;无论是人的内在精神世界还是外在物质世界都无法脱离信息技术的建构,由此引发了一系列社会变革,需要人们在伦理学视域内探讨关于信息的技术限度和人文限度,并对信息技术与人的关系进行反思,这其中包括大数据技术与其他智能技术条件下人的自由与发展问题、人的数字化发展方式、人在物联网技术中的价值与异化、人工智能体的道德属性问题以及大数据技术下信息共享与信息保护之间的作用机制等,还包括了一些具体问题,如数字鸿沟、信息自由、信息知识产权、信息安全、信息爆炸、信息过载、信息生态失衡、信息污染、信息异化等。

人工智能的发展带来了知识生产和利用方式的深刻变革,从消除贫困到改善教育,从提供医疗到促进可持续发展,人工智能都大有用武之地。例如,人工智能可以大幅度降低医疗服务的成本,还可以改变贫困地区教师不足、教学质量低下的局面,促进教育公平。此外,人工智能可以服务于残障人士。例如,微软一款名为“seeing AI”的产品,帮助失明和弱视人群应对日常生活中的问题。[1]

人工智能在金融行业的应用已经相当广泛。人工智能金融,简单来说就是人工智能+金融,即利用人工智能技术,在各种金融环境中模拟人的功能,达到提高效率、节省成本和改善客户服务能力等目的。目前,人工智能技术广泛应用于银行、证券、保险等传统金融机构以及互联网金融平台的产品营销、身份核验、客户沟通、信用评估、反欺诈等多个环节,衍生出互联网银行、直销银行、智能投顾、互联网证券、互联网保险等一系列新兴金融业务领域。通过智能客服、智能投顾、智能风控、智能投研、智能营销等手段,避免人力密集,大幅提升工序的效率,不断挖掘创新的商业应用场景。例如,交通银行服务机器人“娇娇”采用了“人工+智能”的设计模式,是个“能听会说、能思考会判断”的智能大堂经理机器人,娇娇整合了包括语音识别、语音合成、自然语言理解、图像、人脸和声纹识别等在内的多项人工智能技术,现身真实世界,为客户提供专业金融服务。搭配了强大的人机交互能力,采用全球最陷阱的人工交互技术,她不仅能够聊天,处理业务和推销产品,同时其准确率也能达到百分之九十以上。此外,“娇娇”还具备了非常强自学习能力,其掌握的一部分知识来源于自带硬件系统,另外一部分知识来自于外部输入教学,如贷款利率及上浮幅度、外汇兑换牌价等相对复杂的计算均可以通过教学的方式导入其知识系统。在保险行业,蚂蚁金服推出“车险分”,帮助保险公司进一步识别客户风险、合理定价。“车险分”可根据车主的职业特性、信用历史、消费习惯、驾驶习惯等信息,对车主进行精准画像和风险分析,得出300-700不等的分数。车主得分越高,通常可能意味着发生事故的风险较低。车险的风险管理也走向智能化道路。

但是,人工智能技术的飞速发展也给人类未来生活带来了一系列挑战。其中的伦理问题是人工智能与人类的关系问题。这不再是人与人之间的关系,而是人类与自己所发明的一种产品(可以称之为智能机器)构成的关联,这是传统伦理学从未遭遇到的新问题。控制论之父维纳在其名著《人有人的用处》中曾给出了一个令人恐惧的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”

维纳的激进言辞担心在今天还未成为现实,但是已经引起广泛关注,《纽约客》杂志20171023日的封面登了一幅机器人向乞讨的人类施舍的画,人们开始越来越深入地讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。“人工智能”一词是在20世纪50年代末创造的,[2]指的是在软件和硬件上实现具有人类智能水平的实体这样一个令人兴奋的愿望(Michael I. Jordan2019)。[3]近十年来,人工智能技术的发展突飞猛进,“深蓝”、“AlphaGO”等智能机器人在棋类比赛等领域战胜了人类顶级选手,给人们留下了深刻印象。

 

(一)人工智能与人的关系

人工智能创造不仅仅创造出了技术工具,而且越来越具有类似于人类思维的能力,甚至在某些方面具有超越人类思维的能力,人和人工智能机器之间将是一种主体与类主体之间的关系。[4]智能机器通过深度学习,可以识别、模仿人的情绪,能独立应对问题等。[5]那么,智能机器能否算作“人”?人与智能机器之间的关系应当如何定位、如何处理?智能机器应当为其行为承担怎样的责任?智能机器的设计者、制造者、所有者和使用者又应当为其行为承担怎样的责任?人们会不会设计、制造并使用旨在控制他人的智能机器?这样的情况一旦出现,人类将面临怎样的命运?这一系列问题关乎人伦关系的根本性质和价值基础,也关乎人类整体的终极命运。

现代人工智能技术更关注人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。[6]

新一代信息技术尤其是人工智能技术必须是安全、可靠、可控的,如果某一项科学技术可能危及人的价值主体地位,那么无论它具有多大的功用性价值,都应果断叫停。对于科学技术发展,应当进行严谨审慎的权衡与取舍。

《未来基石——人工智能的社会角色与伦理》报告指出,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。人工智能带来了一些已经在发生或即将发生、有可能撼动我们社会基础的根本性问题。随着人工智能的不断发展,我们对于人的理解越来越物化和去意义化,人和机器的边界越来越模糊,我们需要思考这种边界模糊的后果。我们该如何对待机器和自身的关系?人和机器应该整合吗?如果人对快乐和痛苦的感受可以通过其他物理和化学手段来满足,那么,人还有参与社会互动的需要和动力吗?人工智能还带来了新的社会权力结构问题。借助人工智能,企业可以赋予每个用户大量的数据标签,并基于这些标签了解人的偏好和行为,甚至超过用户对自己的了解,这是巨大的权利不对称。此外,人工智能可能会造成偏见强化。在社交媒体中,人工智能将观点相近的人相互推荐,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。人工智能还使社会的信息和知识加工处理能力被极大放大,信息和知识的冗余反而使人陷入选择困境。

人工智能也对传统的法律法规和社会规范提出了挑战。譬如,无人驾驶汽车一旦出现事故,我们究竟该归因于开发产品的企业、产品拥有者还是人工智能产品本身?

案例  自动驾驶事故的伦理困境与责任认定

“电车问题”是伦理学上著名的“两难”思想实验,1967年由哲学家菲利帕•福特首次提出。无人驾驶汽车上路试验使得这个思想实验成为现实。想象一下,有一辆失控的电车正沿着轨道横冲向前,轨道的前方站着5个人。此时作为旁观者的你可以拉动一个拉杆,将电车转向另一条轨道—这条轨道上只站了一个人。那么我们的选择应该是什么?是什么都不做,让那5个人被撞死?还是拉动开关,牺牲另一个人从而拯救5个人?这就是著名的“电车问题”。

在设计无人驾驶汽车程序时,人们不得不考虑它在现实中发生的可能性。其实,无人驾驶汽车版的“电车问题”要比原来更复杂,它所涉及的伦理关系是多层面多角度的。如何实现符合一定“标准”的“伦理代码”?什么样的“伦理代码”是“合适的”?谁又该为必然会出现的无人驾驶汽车事故负责任?进而,谁要为这样的“伦理代码”负责?是车主、制造商还是程序员?[7]

在人工智能机器可否成为道德主体的问题上,有三个关键性的特征: 相互作用,即对事物变化引起的剌激能够做出回应。自主权,指在没有外界刺激的情况下也可适时而动。适应性是能够根据环境的改变而随时调整适应规则。智能机器的任何操作都可能与目标体之间出现冲突,不论任何时候,一旦冲突发生,就有可能危害到人类。通常最基本的伦理原则是保障人类生命安全。从现在智能机器的发展趋势来看,技术进步所带来的利益与相关风险所引起的灾难有待评估。

 “当车祸无法避免时,自动驾驶汽车该如何取舍,是优先保护马路上的行人,还是优先保护车内人员?”耶鲁大学技术与伦理研究中心主任温德尔·瓦拉赫(Wendell Wallach)提出这个问题。一辆无人车如果被黑客攻击了,它有可能变成一个杀人武器,这是绝对不允许的,我们一定要让它是安全的,是可控的。 “技术进入驾驶座,成为人类命运的决定因素,如果系统失灵,谁将承担责任?自动驾驶只是触及到技术伦理与道德的冰山一角。”瓦拉赫说,家庭机器人、自动金融系统等已经能够影响人类的生活,并将产生难以预料的伦理后果,人类应该尽快有所行动,让伦理和科技的发展同时进行。他反复提及隐私、责任、偏见、公平和透明度等词语,认为提高人工智能的透明度应当摆在第一位,而随着机器习得类人的语言能力,它们也容易习得某些人类的偏见,这种偏见若被放大,后果不堪设想。他还提出用一种审慎监管的方式——设置一条“红线”,在保障大众利益的前提下,为科技留出发展空间,并用这种方式使公众了解人工智能伦理的边界。[8]

(二)算法与公平

互联网技术、数字技术等广泛应用,算法社会正飞速而来。算法社会( Algorithmic Society) Jack MBalkin 提出的概念,其意指算法(人工智能或机器人) 不仅制定与社会经济相关的决定,而且该决策的落实也是由算法完成,机器人与人工智能的使用只是算法社会的一个实例而已。[9]大数据通过数字画像使算法能根据个人职业、收入、喜好等精准定制信息、推送服务,或提供基于算法的社会决策或商业服务。在评分社会中,算法的快速与高效使算法得以广泛使用,逐渐形成算法接管社会的现象并决定着社会的诸多事务。[10]算法带来便利的同时,也易引发突出的社会问题。“算法通过分类和风险评估来构建身份和声誉,因缺乏透明度、问责机制、监测制度以及正当程序约束,为歧视、归一化和操纵创造机会。”环伺全球,诸如算法偏见或算法歧视、算法操控等社会问题已频频出现。[11]

算法公平理论上是可以实现的。但是公平是一个相对的概念,当公平被量化、算法化后,可能生成不公平的结果而不被察觉。虽然算法代码可以打开和检查,但这并非普通老百姓的能单独完成的。而且算法不一定何时何地都完全对和完全可控,当环境有新变化,算法的准确度就可能降低甚至于失效。人工智能算法带来的歧视隐蔽而又影响深远。信息的不对称、不透明以及信息技术不可避免的知识技术门槛,客观上会导致并加剧信息壁垒、数字鸿沟等违背社会公平原则的现象与趋势。人工智能算法、参数、设计目的、性能、限制等相关信息,都应当是公开透明的,不应当在开发、设计过程中给智能机器提供过时、不准确、不完整或带有偏见的数据,以避免人工智能机器对特定人群产生偏见和歧视。

 

案例  人工智能医疗方案[12]  

20186月,美国医学会(AMA)发布了首个关于如何开发、使用和调节人工智能的指南。该协会将人工智能称为“augmented intelligence”(智能增强),这表明美国医学会认为人工智能的作用是增强而非取代医生的工作。

虽然AMA在指南中表示,人工智能应该设计用于识别和解决偏见、保障弱势群体需求、实现过程透明性并保护患者隐私,但在具体实施中,这些要求很难得到满足。2017年,芝加哥大学医学院(UCM)的数据分析团队使用人工智能来预测患者可能的住院时长,目标是确定可以提前出院的患者,从而释放医院资源并为新的患者提供救治。然后,医院还会指派一名案例管理人员来帮助患者处理保险事宜,确保患者能早日出院。

在测试系统时,研究小组发现,预测患者住院时间最准确的因素是他们的邮政编码,而邮编与患者的种族和社会经济地位密切相关。依靠邮政编码做预测,会对芝加哥最贫困社区的非裔美国人造成不良影响,这些人往往住院时间更长。因此该团队认为使用该算法分配案例管理员将是有偏见和不道德的。如果在实践中实施这个算法,就会把更多资源分配给更富裕的白人患者。最终数据分析团队删除了邮政编码这个预测因素。该算法仍在开发中,尚未测试出新模型。这个案例展示了基于人工智能的医疗保健工具的弱点:算法通常可以反映现有的种族或性别健康差异。这个问题如果没有得到解决,就可能会导致长期性偏见并固化医疗保健领域现有的不平等现象。

偏见还会影响罕见病或新疾病的治疗,这些疾病的治疗数据有限。人工智能系统可能会直接给出一般治疗方案,而不考虑患者的个人情况。这时,人工智能拟议的治疗方案是无效的。斯坦福大学麻醉学助理教授Danton Char 在一篇关于机器学习的论文中指出,因为严重脑损伤患者或极早产儿的存活几率很低,因此医生常常停止对他们的护理。而即使某些患者个体预后良好,机器学习算法仍然可能会直接得出结论:所有类似病例都是致命的,并建议撤回治疗。

人工智能的另一个道德挑战是,通常情况下,研究人员并不了解AI系统是如何计算出结果的,即所谓的黑匣子问题。先进的机器学习技术可以在没有明确指示的情况下吸收大量数据并识别统计模式,整个过程人类尤其难以验证。盲目遵循这种系统的医生可能会在无意中伤害患者。2015年的一项研究中,研究人员比较了不同AI模型预测肺炎患者死亡风险的程度。预测之后,那些风险较高的人将被送往医院,而低风险的病人可以转入门诊治疗。  其中一个模型是“基于规则”的系统,其决策过程对研究人员来说是透明的,却预测出违反直觉的结果:患有肺炎和哮喘的患者比仅患有肺炎的患者存活机会更大,因此患有两种疾病的患者可以推迟治疗。显而易见,医护人员能够清楚的判断患有两种疾病的患者具有更高的死亡风险,但算法不能。所以仅仅依靠这种算法,意味着最危急的病人将不能及时得到他们所需要的治疗。

根据AMA的医学伦理基本原则,医生必须完全对患者负责。但是,当人工智能进入等式时,责任又该如何划分?这个问题的答案仍在由伦理学家、研究人员和监管机构制定。人工智能打破了提供医疗服务的群体限制,一些传统上不受医学伦理约束的人,比如数据科学家,也可以为患者提供医疗服务。此外,正如黑匣子问题所示,人们并不总是能够确切地知道人工智能系统是如何做出诊断或开出治疗处方的。有缺陷的算法可能对患者造成重大伤害,从而导致医疗事故。虽然不能指望临床医生了解他们开出的药物的每一个生化细节,但基于他们的临床经验和医学文献知识,他们至少需要知道这些药物是安全有效的。至于人工智能系统,除非经过仔细研究,他确信这是最佳选择,否则他不会使用。Char说道:“当你对工具的了解并不充分时,你不愿让任何患者的生命处于危险之中。”

  美国医学协会曾发出警告:人工智能必须保护患者信息的隐私和安全。对医患保密的承诺,是自希波克拉底立誓以来医学伦理存在的基石。但为了做出准确的预测,机器学习系统必须要访问大量的患者数据。如果没有个人的医疗记录,人工智能将无法提供准确的诊断或有用的治疗方法,更无法实现更加个性化的治疗。更重要的是,如果数以百万计的病人隐瞒他们的医疗数据,关键的公共卫生趋势可能会被忽视,这将是每个人的损失。

  一个潜在的解决方案是从用医疗记录中单独删除个人识别信息来保护患者隐私。然而,最近由加利福尼亚大学牵头的一项研究表示,目前的匿名化技术还不够成熟,并不能保证数据的有效清除。不过,未来可以开发更复杂的数据收集方法,以更好地保护隐私。

  不管技术能力如何,医学专家建议医学界重新考虑患者隐私的整个概念。随着医疗系统变得更加复杂,将有更多的机构有合法合理的需求去访问敏感的患者信息。机器学习系统的实现,意味着我们需要重新认识医疗数据隐私和其他职业道德核心原则。

  在实践中,医院和机构需要赢得患者的信任。患者有权利了解他们的医疗隐私数据是如何被使用的,以及数据是会使他们自身受益或只能让未来的患者受益。伦敦大学学院健康信息学研究所的高级研究员Nathan Lea表示:“如果患者更好地了解人工智能是如何改善个人和公共健康的,他们可能愿意放弃传统的隐私观念。隐私本身并不是绝对的,我们不能以保护患者隐私为借口而拒绝数据背后的庞大价值。”

(三)人工智能伦理规范

任何技术都必须为广大人民群众带来福祉、便利和享受,而不能为少数人所专享。所有的企业、所有的人都应该能够平等地获取AI的技术和能力,防止在AI时代因为技术的不平等导致人们在生活、工作各个方面变得越来越不平等。AI的终极理想是为人类带来更多自由和可能。

未来的人工智能很可能使一般劳动不再成为人们谋生的手段,而是变成个人自由意志下的一种需求。而且AI能够教人学习,帮助每一个用户变成更好的人。例如,微软的人工智能小冰就是一个以培养情商为目标的人工智能系统。从2014年在中国发布以来,小冰成为了首个被普遍部署的聊天机器人,小冰被设计成了一个18岁少女的形象,拥有极强的语言能力、视觉感知能力以及180多项技能。目前,小冰在全球拥有超过1亿个用户,与用户间的对话超过300亿回合,而且是第一个给人类打电话的聊天机器人,目前已给人类打了超过100万次的电话。在过去几年中,小冰通过一系列技术迭代不断改进,她还成为电台、电视台的主持人,主持了60多档节目。小冰还可以画画、跳舞,还可以唱歌、作诗。

很多科技者仅仅醉心于技术突破,技术伦理的缺位可能带来问题。例如,当人们轻敲手机和平板电脑的屏幕时会产生声波,这些声波通过设备的内置麦克风收集、恢复,从而就可“听到”敲击屏幕的声音。结合人工智能算法,听到的声音与键盘位置关联,就可实现“偷听”用户信息。开展这项研究的剑桥大学计算机实验室用其自己开发的算法模型进行了实验,结果表明,对于四位数密码而言,该模型在10次尝试后可以准确恢复54%的密码;20次尝试后可以恢复150个密码中的91个,识别准确率为61%。剑桥大学的研究表明虽然囿于技术的局限,目前尚无法偷听得那样精确。但假以时日,人工智能算法装备的智能手机等设备,肯定会把人“偷”得赤条条。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。

值得信赖的AI是理想目标。人工智能设计应以正确方式向用户呈现信息。比如搜索引擎,用AI技术完善搜索体验、最大化满足用户获取信息找到所求为目的,做一款好用、干净的搜索产品,可以通过用户语音搜索时输入的声音,进行声纹识别,判断使用者是否儿童,识别出儿童即自动切换儿童版搜索结果。

目前,企业越来越重视技术伦理在产品设计中的重要性,一些龙头企业率先倡导或制定了有关伦理守则,关注人工智能开发和应用的伦理问题。微软公司提出6个道德基本准则:公平、包容、透明、负责、可靠与安全、隐私与保密。谷歌公司也表示,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。腾讯研究院“智能时代的技术伦理观”报告提出要探索技术、个人、社会三者之间的平衡。新技术需要价值引导,做到可用、可靠、可知、可控;个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会。百度提出了AI四项伦理原则:最高原则是安全可控;AI的创新愿景是促进人类更平等地获取技术和能力;AI存在的价值是教人学习,让人成长,而非超越人、替代人;AI的终极理想是为人类带来更多的自由与可能。

无论技术如何发展,机器不能被赋予人的道德地位并且继承人的尊严。近年来,多国科学家一直在呼吁,人们需要通过新的管理和监管手段,为人工智能、机器人和“自主”系统的设计、生产、使用和治理,建立一个通用的、国际公认的道德和法律框架。[13]国际社会在这方面正在做出努力。由欧盟委员会任命的、拥有52名技术人员的专家组正式发布了一份普适性的《人工智能伦理指南》,旨在促进开发“值得信赖的AI”成果。欧盟方面主要关注四大伦理原则,即尊重人的自主权、防止伤害、公平性以及可解释性。但除此之外,指南提到可信赖的AI还意味着应遵守欧盟的法律与基本权利(包括隐私权),以及高水平的社会技术稳健性。任何希望设计、训练以及营销可信赖AI系统的组织或个人,都必须认真考虑相关系统可能引发的风险,并对为减轻这些风险而采取的具体措施负责。此外,这份指南还提供了一套详尽的框架,用于对此类措施做出评估。欧盟委员会呼吁各私营部门积极应用这份指南。

加拿大与日本等国已经发布过包含道德伦理原则的AI战略,经合组织也正立足这一领域广泛收集建议。目前,大多数高科技巨头都已经制定出自己的原则,民间社会也在快速消化各类指导性文件,包括以人权为重点的多伦多宣言。由牛津大学Luciano Floridi教授领导的一项研究发现,尽管所使用的术语各不相同,但大部分现有声明之间都存在着一大共通性特征:它们并非强制执行,即没有硬性约束力。



[1]参见中国发展研究基金会《未来基石——人工智能的社会角色与伦理》报告。

[2] 1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰•麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。当时,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。在人工智能的发展这个早期阶段,很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来,特里•谢伊诺斯基和杰弗里•辛顿根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让网络可以像人脑一样学习,并能够做出简单思考。

[3] 参见https://hdsr.mitpress.mit.edu/pub/wot7mkc1/

[4] 曾建平,信息时代的伦理审视,人民网,20190712日。

[5]机器学习是指通过海量信息和数据收集,让机器从中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。阿尔法狗就是通过机器学习打败了习惯于人类思维的棋手。

[6] 蓝江:人工智能的伦理挑战,光明日报,2019-04-01

[7] http://www.xinhuanet.com/world/2015-12/15/c_128530697.htm

[8] 参见新华日报报道“AI人机交互:技术、应用与伦理201965日。

[9]参见Jack M Balkin2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of obotics in the Age of Big Data78 Ohio St L J ( 2017) : 1219

[10] Danielle Keats Citron Frank PasqualeThe Scored Society: Due Process for Automated Predictions89 WASHLREV1 ( 2014) ; David LehrPaul OhmPlaying with the Data: What Legal Scholars Should Learn About Machine LearningUniversity of CaliforniaDavis Vol51: 653 ( 2017) ; Tal ZarskyUnderstanding Discrimination The Scored Society89 WASHLREV1 ( 2014)

[11]因算法自身的因素或突发性错误等瑕疵使算法运行过程中会出现偏差,即算法偏见,也被称为算法歧视,是指那些可以造成不公平、不合理结果的系统性可重复出现的错误,其最常见的是对不同人有不同的结果,或者是给两个相同或相似条件的人不同结果。如果算法设计者刻意编写带有主观性的程序,这种情况被称作算法操纵。算法偏见的规制要从数据和人为两方面,以公平原则和技术伦理原则为指导,基于透明和可问责性,建立公平有效、程序完善的规则。Batya Friedman Helen Nissenbaum 将计算机系统偏见按照来源的不同分为先行存在偏见、技术性偏见和突发性偏差。参见FriedmanBatyaNissenbaumHelen Bias in Computer Systems ACM Transactions on Information Systems 199614 ( 3)

[12] 参见http://www.medsci.cn/article/show_article.do?id=3d5a168010ab

[13] http://guancha.gmw.cn/2019-04/05/content_32719012.htm

个人简介
行为经济学者,创新发展,金融投资专家,南开大学经济学博士,荷兰maastricht管理学院mba,兰州大学数学学士 email:prophd@126.com
每日关注 更多
郑磊 的日志归档
[查看更多]
赞助商广告