新兴技术提出的伦理挑战

郑磊 原创 | 2019-07-22 10:09 | 收藏 | 投票

  (为深港澳金融科技师培训教材编写的“技术伦理”章节部分内容)

美国圣母大学约翰·莱利科学、技术和价值研究中心曾在《2014年科学技术领域中将出现的伦理困境和政策问题》报告中提出,公众对未来随着新技术发展可能出现的以下问题:犯罪预测警务是否需要惩处潜在罪犯?机械化有机体是否将动物当成玩具?数据芯片植入还会有个人隐私吗?伴侣机器人会不会改变人类互动的价值观?虚拟货币是否会助长违法行为?神经增强方法会使人类在何处越过界限?气候工程如何加强环境正义?机器人执法何时需要人类的判断干预……

新涌现的技术已经不仅仅是一系列无生命的工具,也不仅仅是相互联结、辅助完成任务的系统,而是重新划分了自我与他人、自然与人工之间的界限。技术发明已经渗入了我们的身体、思想和社会交往,改变了我们与其他人和非人的关系。[1]希拉•贾萨诺夫将技术带来的重大问题分为三类:一是诸如“疯牛病”、福岛核灾难、全球变暖、搭乘顺风车人身安全等风险问题;二是进一步加大的不平等问题;三是涉及自然的价值和意义的问题,这不但诱惑人们将自然和人类本性转化为一架可操纵的机器,而且直接导致了社会的碎片化乃至消失。


[1]希拉•贾萨诺夫,发明的伦理—技术与人类的未来,中国人民大学出版社,2018

技术的发展事实上正在改变生命的自然方式,尤其对人类本性和自然认同带来冲击。而且随着基因技术、人工智能和机器人等新技术的加速兴起,它们对于人类的基本尊严和价值观提出了重大挑战。贾萨诺夫把技术也看作是一种权力—技术规定了社会秩序,分配利益和负担,重构了权力。想要在享受技术带来的便利的同时保有人类的基本尊严和自由,就需要让法律和政治的成熟随着技术一起演化,这就需要对技术进行理性监管和伦理治理。以下几个方面是新兴技术提出的具有共性的伦理挑战。

自由意志与知情同意

技术能否被接纳或应用,应该始终坚持尊重个人的自主选择与决定权。知情同意包括两个相互联系的过程:知情和同意。知情是指实验者应充分的向受试者提供与实验有关的信息;同意是指受试者在无任何引诱和威胁的条件下完全自愿的同意。

“知情同意”是尊重人的自主性的集中体现,即要给予自主个体足够的信息去理解,使其“出于自己的自由意志”自愿做出是否“同意”的选择。因此,知情同意的前提是必须“知晓事情”。知情同意不仅仅限定于这一代人,那些不能被询问或是无法表达自己选择决定的关联人士,如未成年人、未来的子孙后代等,必须由指定人士来代表他们的利益。

但是,由于先进技术的发展,对于使用者解释清楚技术的机理和作用变得非常困难,有些特殊领域,例如医疗行业,甚至在落实知情同意这一原则的过程中,还涉及到其他伦理问题。而在数据技术领域,例如,大数据,很难针对具体个体做到使其知情同意。信息资料的公开无法通知每个使用者,没有知情同意可言。互联网技术的许多应用造成了权力非对称现象,技术人员不仅应遵循设计保护隐私(privacy by designCavoukian等,2010),而且要通过设计增加使用者的自主权,让人们在知情的情况下,自己决定愿意公开哪些有关自己的信息资料(Tavani,2007)。

案例  机器人做手术[1]

“机器人外科手术”这一医疗术语通常指的是外科手术中的人机合作活动。在今天,著名的外科机器人已经应用在很多医院。

外科手术机器人通常是一个遥控机器人,因为它通过外科手术专家进行远程操作,但并不是全自动化的。外科手术专家通过一个远程的控制台,用两个手柄把握内窥镜的位置以及手术仪器。事实上,他对计算机发送指令来控制机器人的手臂,使得机器人可以完成外科手术。手术的工具装有感应器,从而可以把实时情况反馈到外科医生的手上,以防过度操作。这样可以消除医生在手术过程中手臂抖动的现象,并能够提供及时的反馈从而确保手术的顺利进行。因此,在手术过程中使用机器人进行手术已成为手术操作中的一个范例。

在此,我们设想这样一个场景:当外科手术机器人变的更具自主性并且和人类外科专家成为真正的合作者,但其行动却不是来自于简单的远程控制,那么其结果如何?我们再来考虑这样一个状况。机器人完成了一个手术操作,然后病人出现很多并发症并且较之之前病情加重。那么谁来负这个责任?机器人的设计者?制造者?编程人员?或者其它主体?如果对于这一外科手术存在一个众所周知的可能出现的问题,对于外科医生或医院,或者两者都包括在其中,那么这个伦理问题谁来负责?是否建议或者批准使用机器人手术的人?伤害在什么样的情况下可以定义为不道德?或者换句话说,伤害的程度在什么范围内可以被道德所允许?即,可接受的风险是什么?机器人手术中真正的自主权需要有很多安全方面的措施,以确保病人免受其害。

 

经济价值与伦理价值并重

科技创新是推动人类进步的核心驱动力,然而,在现实生活中,技术开发和应用的经济和经营考量往往是人们的优先目标,主宰着人们的价值取向。对于技术而言,功能作用和可行性是首要目标,其次是成本、经营效益、利润、销售额、市场占有率、符合市场需求等因素。这一经济逻辑唯有建立在“人文与伦理逻辑”默认前提之上,才能真正实现其推动人类进步的使命。

技术伦理提出了从社会角度看有意义的技术和经济行为的目的与价值问题。换言之,即最为重要的问题是关于通过道德的论据予以论证的行为选择。人们应该做的是这样的行为,要从大量技术和经济上可能的行为中,根据相应的标准将其选择出来(Matthias Maring)。技术伦理要求科技工作者和经济界人士不能只从技术本身和经济价值角度考虑技术的发展应用,而要将伦理价值、社会规则与技术设计结合起来,使技术的使用更符合人类价值。如德国工程师协会(VDI)第3780号指南(2002年)列出了技术行为价值为功能性、经济性、福利、安全、健康、环境质量、个性发展和社会质量等。

如何辩证地考量技术设计和社会环境,在技术过程中强调设计的道德价值,并通过概念分析、实证分析和技术分析三重研究方法解决现有技术中的伦理问题,价值敏感性设计给我们提供了一定的借鉴。该做法体现了“助推”思想,在信息系统的技术设计领域“嵌入”道德因子,从外部激励社会个体做出合乎伦理的行为,并引导个体在信息活动中的向善行为。案例 价值敏感性设计[2]

弗里德曼在美国国家科学基金会的资助下组建了一个工作坊,从不同学科召集了很多科技工作者,并主要从计算机伦理与计算机安全的角度商讨了价值敏感性设计的概念及相关内容。“价值敏感性设计”是一种在技术设计的整个过程之中把人类价值全面而系统地纳入进来的方法,以扩大技术设计领域的价值范围为导向,将与人类价值相关的其他范围内的价值因素都纳入到对技术的设计的考虑范畴中“价值敏感性设计”最初用于对人机交互的研究,发展至今己经广泛应用于信息管理、人机交互、计算机安全以及计算机哲学等诸多领域。

“价值敏感性设计”在具体实践过程中,将计算机信息系统的设计与哲学科学工作者基于技术与社会实践以及与社会影响的考量结合起来,不仅从伦理上探究设计的价值,更从具体化的角度、外在化的角度以及相互作用的角度论述了价值内嵌于技术设计中的方式。从具体化的角度而言,技术的设计者强调自身的设计理念与技术相结合,应用到技术中的结果将影响技术使用者的个体技术行为,并体现在技术使用者本身所从事的技术活动中。这在一定程度上对技术使用者产生了影响,只要技术使用者接受了某项特定的技术,就必须按照设计者的意图来从事相关的技术活动,很难对其做出改变。从外在化的角度而言,现实中某项技术的设计受到外在化的经济、政治、年龄、文化背景等因素的影响,因而在一定程度上又体现了具有外在影响力和其他文化背景的价值。从相互作用的角度而言,技术通过将实用价值以及其他价值嵌入到技术系统中,间接地支持或阻碍了某种观念的形成,从中也体现了技术与人的互动。技术通过设计、再创造和再设计的过程,不断得到丰富和完善。设计领域中的技术具有非常丰富的价值含义,对于技术的设计也应当考虑到更广阔范围内的人类价值,并对该项技术的未来影响进行考虑,而不仅仅是一种事后反应的状态。

价值敏感性设计具有非常丰富的内容,通过一种整体性视角去说明技术设计与人类价值的互动关系,体现了对某种设计背后的直接利益和间接利益的关注,并通过概念、经验和技术研宄的方法进行具体阐释“价值敏感性设计”理念己经渗透到信息系统的很多设计领域,包括网络浏览器的安全设计、提供知识分享的群件系统(groupwaresystems)、学龄前儿童的在线安全防护等具体操作中通过在概念分析、实证分析和技术分析三方面的设计加强对信息系统的隐私保护。在概念分析的方面,加强对信息系统隐私保护设计(privacyenhancingtools)的关键点在于用户对个人信息的自我掌控,也就是说,要使用户意识到掌控个人隐私的重要性。



责任与创新

人的行为的责任归属因技术的使用而变得更加复杂。新兴技术的高风险性,一部分来源于技术本身的不成熟,由于人类认识的有限性导致技术发展的同时也潜藏着诸多无法预料的后果,而另一部分可能是非技术原因造成的,新兴技术的滥用会对社会经济、文化、政治等方面产生的久远甚至无法弥补的破坏性影响。对于新兴技术来说,选择与后果尤为重要。

根据“责任伦理”学者尤纳斯的观点,现代技术时代的伦理是以未来行为为导向的伦理,对于责任的履行应当具有预防性和前瞻性。相应的道德任务不在于实践一种最高的善,而在阻止一种最大的恶。[3]技术专家不但有责任使技术项目的结果是为人类的福利和幸福服务,他们还有责任防止技术走向毁灭人类自身。[4]由此可见,在主体层面上,对主体行为进行伦理规约最重要的就是培育主体的责任感。1984年在瑞典乌普萨拉制定的"科学家论理规范"中规定:当科学家断定他们正在进行或参加的研究与伦理规范相冲突时,应该中断所进行的研究,并公开声明不利结果的可能性和严重性。因此,遵守科研的伦理规范,预测技术活动的后果是科学家与工程师的直接伦理责任。

在落实责任的过程中,新兴技术的复杂性和多元性,导致一种责任可能由多元主体承担的局面,而多元主体之间因难以厘清责任归属问题而相互推诿,出现责任主体悬置问题。例如,在信息活动中,就会表现为个体与社会承担责任、追溯性的责任与前瞻性责任之间发生矛盾冲突,进一步导致了信息伦理与社会伦理问题的交织。因此,各个主体必须明确个子的伦理责任范围,对自身行为负起相应责任。对于生物系统来说,责任意味着需要澄清的、针对其可控性和可调整性的安全问题,技术人员有责任将生物技术改变后的痕迹昭示于众,并且由个人决定其取舍(Karafylls,2006)。

案例:我们是谁,我们想要是谁[5]

哈贝马斯曾说:“故意介入一个不可把握的领域,这在道德和法律上都走到了一个极限。” 早在1996年多利羊诞生时,德国著名哲学家哈贝马斯就指出,克隆这种人为改造新生儿“偶然”、“命定”的遗传基因的行为,是对人类本质的自由的极大侵害。

今日的基因编辑,与当时的克隆一样应当受到伦理上的质问。基本的伦理问题在于:我们是谁和我们想要是谁。如何来评价复制一个人的遗传本质,我们也需要使用同样的道德标准……我们迄今为止还离不开我们的遗传密码。可是,我们并不能让任何其他的人来对这个密码负责。对于克隆人而言,在他出生之前,其他的人就决定了他最终的编码,而且不容更改。有意图地决定遗传本质也就意味着,一个克隆人一生都要受制于别人在他出生之前就强加给他的决断。克隆人或许的确和其他所有人一样也享有自由,在生活历史中也充满了反思意识和自主意识,从容应对自己的天赋,以此来积极回应自己的这种出生。但是,对于克隆人来说,这些“天生的定性”,或他们所认为的定性,无论如何都不再是偶然获得的,而是别人故意制造出来的结果。故意介入一个不可把握的领域,这在道德和法律上都走到了一个极限。

福山在《我们的后人类未来:生物技术革命的后果》中,一针见血地指出:“既然大多数父母只想给予孩子最好的,这意味着孩子某种程度的隐性同意,孩子是更高智商、更好看的容貌和更满意的基因特质的直接受益方。然而,仍然存在较多的可能,对于生育技术的选择对父母是有利的,而对孩子则可能带来伤害。” “生物技术会让人类失去人性……但我们却丝毫没有意识到我们失去了多么有价值的东西。也许,我们将站在人类与后人类历史这一巨大分水岭的另一边,但我们却没意识到分水岭业已形成,因为我们再也看不见人性中最为根本的部分。”

面对事关人类发展的新兴技术,要确保人类始终处于主导地位,始终将人造物置于人类的可控范围,避免人类的利益、尊严和价值主体地位受到损害。始终坚守不伤害人自身的道德底线,追求造福人类的正确价值取向。



[1] Taylor R. HLavallee S, Burdea G S. Computer Assisted Surgery, Cambridge, MA:MIT Press, 1995

[2]刘瑞琳,陈凡.技术设计的创新方法与伦理考量一一弗里德曼的价值敏感设计方法论述评,东北大学学报(社会科学版),2014,163

[3]甘绍平,应用伦理学前沿问题研究,江西人民出版社,2002

[4]沈铭贤,促进科技与伦理的良性互动,文汇报,20051010日。

[5] 本力,基因编辑婴儿最残酷的结局是什么?—以及关于自由和创新的误解,20181128日,微信公众号伦理管理学

个人简介
首席经济学家,香港中文大学(深圳)SFI客座教授,行为经济学者,创新发展,金融投资专家,南开大学经济学博士,荷兰maastricht管理学院mba,兰州大学数学学士 email:prophd@126.com
每日关注 更多
郑磊 的日志归档
[查看更多]
赞助商广告