技术伦理的基本原则

郑磊 原创 | 2019-07-17 10:32 | 收藏 | 投票

 (为深港澳金融科技师培训教材编写的“技术伦理”章节部分内容)

“科技发展”并不总是等于“人类进步”和“人类幸福”。技术本身是中性的,技术应用中表现出的种种问题,归根结底是人的问题。技术开发和应用者的价值观决定了技术发展的界限。技术本身是中性的,如今显现的种种问题归根结底是人的问题。人们不应该沦为技术的囚徒,要始终恪守法律法规和公序良俗。

在当今全球化和多元化的社会中,我们需要为技术伦理确立作为理性和评判的普遍有效的参考基准。科技伦理的目标很明确,即通过有效的规范,保证研究的所有环节都处于伦理范畴,使研究的整个链条都指向追求善的目的。科技伦理发生作用的空间结构:政策环境、研究主体、手段、研究对象与研究结果,在这个研究链条的每个环节内都存在伦理缝隙,如果处理不当,就会引发严重的社会问题。[1]

技术伦理的原则与一般伦理原则相同,仍然是以平等、自由、公正等为核心诉求,但技术因为其本身的特殊性,在不同技术领域有着更为具体的一般准则。我们可以总体上称之为科技向善 所谓“科技向善”。简而言之,就是倡导人类善用科技、避免滥用、杜绝恶用,引导技术和产品放大人性之善。[2]

伦理学中存在诸多理论流派,有些学者关注行为主体动机,侧重于强调道义论,即行动者的动机是否是善的;另一些学者则倾向于根据行为结果来判断行为是否是善的;注重过程的流派倾向于采取功利主义模式,认为一个行为如果能取得综合收益最大化,那就是善的。从中不难看出,提炼出具有普遍实践操作性的伦理规范并不是一个简单的问题。[3]

在商业实践过程中,技术伦理经历了一个从不作恶向善的演进过程。[4]谷歌在1999年提出的“不作恶(Do not be evil)”经营理念,影响了几代互联网企业,后来成为各国主流互联网企业的共识。“科技向善(Tech for good)”涵盖了“不作恶”,并且在此基础上演化为保护和发展相统一。

追求至善是科技发展的目标。科技伦理在研究的整个链条上,由于存在诸多空白,时刻面临伦理失范的风险。作为有限理性的人类,应时刻牢记伦理规范在各个环节上的伦理边界,让科学技术研究提升社会福祉,实现人们内在的幸福感。

一、             平等、自由、公正与幸福

当一种新技术、新业态萌芽时,本身自然存在不完善之处,可能带来利益分配不平等问题,另一方面是与之相关的经济负担问题,以及可能出现的受众群体的选择问题。新技术应该保持和促进社会平等、自由和公正,而不是使其结构失衡和恶化。这样的例子有很多,比如,基因技术可能改变人与人之间自然存在的伦理关系,拉大人与人之间的在体能、身体素质等方面的差距。又如,在人工智能技术的支持下,网站可以随随便便虚构出一张以假乱真的人脸照片,可能被别有用心的人利用,而造成人身侵犯。再如,利用了AI技术的自动驾驶汽车拥有一定的自主能力,但一旦出现意外交通事故,很难对责任人进行界定和追究,可能使受害人得不到充分的法律救助。一个涉及种族歧视的例子是,纽约时报曾公布了一个结果,美国现在最先进的人脸识别技术对白人女性的性别判断错误率是7%,而对深色皮肤的女性性别识别错误率高达30%[5]

技术伦理所说的平等、自由、公正与幸福的原则,应该体现在技术活动的各个阶段以及技术造成的结果。如果在技术选择、决策和执行过程中存在违反上述伦理原则的行为,很难保证技术结果能够符合伦理要求。但是,确实存在一些悖论,如何在技术活动中的各利益相关方之间实现伦理标准上的均衡,仍存在着争议。例如,专利保护与利用问题,一方面是对发明者知识产权的保护,从长远能够确保新技术不断涌现和发展,但另一方面看,如果过度保护,则不利于新技术投入使用,无法尽早造富社会,并促进其他相关技术的发展。所以,在充分保护科技专利的同时,也应从经济角度鼓励和推进专利的推广使用,使专利所有者能尽早地将其成果用于公众社会。

信息技术的快速发展使人们生活变得更方便的同时,也产生了隐私保护方面的问题。人们的隐私被侵犯,到处遍布的摄像头织成包围犯罪分子的天罗地网,同时也使更多的普通公众生活暴露在摄像头下。很多网络技术项目对隐私权的忽视、对网络欺骗的容忍、网络监视不受控制,个人信息被泄露无疑是对个人自由的一种严重侵犯。这些技术应用可以借鉴一些发达国家的更好的做法。以网络隐私泄露来说,欧盟于2016年与时俱进地通过了《通用数据保护条例》,效力层级更高,保护力度更大。一旦触碰红线,企业将收获高达其全球年收入的4%2000万欧元的罚款。谷歌曾因将用户“同意”选项设定为“全局默认设置”,被处以5000万欧元的天价罚款。

技术不应刻意去侵犯、剥夺人们的公平权利。约纳斯认为技术是人的权力的表现。既然技术是一种权力,那么权力的行使导致不公平的现象是有可能发生的。正如兰登·温纳所言:“技术发展的过程可能全然地偏向某一方,其结果对某些社会利益群体而言,可能是突出的进展,而对另一些利益群体而言,却意味着明显的退步。”[6] 技术活动的各利益相关方应该在技术行为中体现出公平、公正的价值观。

每一次技术的进步都为人类创造了更多社会财富,但也带来了烦恼:机器逐渐取代了人力,如果不再需要那么多的工作人员,技术的发展将会带来巨大的就业压力,此外,技术的发展也可能会减少部分人的存在感,人的价值在无所不能的机器面前越来越渺小,在机器面前,人们可能感到无助和不幸。当与你一模一样的克隆人出现在你面前,你应该如何去对待?有人因肾衰竭而死亡,另一些人却能享受器官移植技术发展带来的寿命延长,这些都是技术发展无法回避的伦理问题。科技伦理强调和坚持的是为最大多数人服务的原则。坚持这个原则,就可以比较正确地处理科学技术在研究和应用时出现的各种伦理问题,恰当地调整在这些过程中出现的各种人与人之间的关系,达到我们所追求的“公正”。[7]近年来,在欧美兴起负责任创新,追求创新成果普惠化,力求使创新更好地造福社会。

二、             安全、可控与预防

技术的善恶是从技术的功能、技术风险及技术的后果而言的。技术的恶包含风险和失败后果。人们虽然合理应用科学技术,技术仍可能发生不可抗力的、自发性的负面效应。由于人类认识能力的限制,不可能在事先就能预知到一项科技活动会带来的全部效应和复杂联系,因此技术发展存在着不确定性和风险。

技术活动的首要议题就是技术可能会带来的安全风险,并进而引出风险的可控制和预防。技术研究应当安全,并且为可持续发展做出贡献。现在和未来都不应当给人类和自然环境带来危害,或使其在生物学、物理学上或道德伦理上受到威胁。研究人员和研究机构应该对现在和未来人类子孙后代所可能造成的社会、生态和人生健康影响负责。[8]

技术伦理上有避免损害原则,即技术或技术产品不能损害人的身体、精神健康,或带来其他不愿意得到的其他作用,不施加给对方无法承受的风险。如果发生某个事件的概率很小,但是一旦发生就会出现灾难性的后果(重大损害或波及数量足够大的人群),或者对某个事件是否会引起风险无法有结论性解释的时候,比如遗传技术的争论,就需要采取相关的预防措施(Peter Wiedemann)。在有科学证据怀疑的情况下,就必须采取预防措施。在选择预防措施的时候,还应当考虑到因风险问题而被怀疑的技术领域的好处和利益(EU,2000),必须保证所选择的预防措施能够达到保护的目的。

强调对风险的预防与责任伦理学的主张是一致的,其主要内容是:一,对未来人类的责任。而伦理学一般不考虑遥远未来的后代的生存,这样就会继续过度地发展技术。在技术发展过程中,人们需要同时考虑科技进步、经济价值和伦理道德价值。一些尚无法确定风险是否可控的技术,宁可采取较保守的态度,让技术的脚步不要走得太快,这从整体上是利大于弊的。

在技术伦理的安全和预防原则方面,存在不少有争议的话题。最有典型意义的是生物转基因技术,2008年,来自美国塔夫茨大学的汤光文在中国湖南衡阳组织了“黄金大米”的营养学试验。研究人员在未告知实情的情况下,让256~8岁的儿童食用了黄金大米。这就是"黄金大米"事件,在未经过被试的允许,在没有确保被试不受伤害的情况之下进行人体试验,有违人类的伦理原则。美国哲学家西格尔曾说:“一项活动如果是合理的,其理由并不仅仅在于行动者对自己的活动在实现其目标的过程中的工具效益坚信不疑;还应有另外两个理由,即(1)信念本身必须是合理的,(2)事先假定这项活动将会导致的结果本身也必须是合理的。”因此,转基因技术的应用及其社会作用的发挥也需要从两个方面加以考量,一方面要注重分析满足经济社会发展需求的工具、手段等,同时还要注重反思主体意愿与技术目的自身的合理性。人们试图借助转基因技术来解决社会现实困境,抗旱转基因玉米、高出油率转基因大豆等转基因食品确实可以有效解决粮食短缺问题,然而无论其预期目的多么合理,如果运用的工具、手段超越于客观规律之上,仍是不能被广泛接受的。[9]

人们对非自然的产品天生有着严重的忧虑和发自心底的排斥。转基因技术发展的不稳定性和不成熟性使得技术应用成果表现出不可预见性,成为风险结合体,引发了一系列伦理困惑。由于外源性基因的转入,人类对物种遗传的非自然干预已经开始打破自然界的原生状态,使得技术实践无法严格遵循自然界万物生长发育的客观规律,出现了一系列问题,诸如遗传基因污染问题、食品安全、食物链的破坏、免疫力问题、抗药性问题等,人们开始担心对物种的“任意修改”会带来“生物同一性”的困惑,最终使人类陷入困境。

“科学研究无禁区”,但是针对转基因技术本身应保持必要的谨慎,要科学把握转基因技术风险的必然性与不可控性。由于转基因实验大多以动植物为受试者,试验结果与数据报告并不能完全等同于人类,故而对人类来说存在着潜在的健康风险。此外,尽管转基因技术的科学研究是在可控的实验室条件下开展的,自然屏蔽了所有不可控因素,但在投入社会生产生活时,这些因素便会重新复活,加之研究者们尚未彻底理清不同基因之间相互结合的细微变化与潜在问题,没有科学地阐明这种非自然的基因重组会不会带来前所未有的危险和难以控制的后果。

在借助转基因技术生产粮食作物的过程中,人们并不总能与人们的现实利益和道德准则保持一致,相关的社会风险总会以不可控的方式呈现出来。在这种情况下,技术伦理以预防为宗旨的保守做法是值得提倡的,我们应该在科学、经济价值和伦理道德之间做好平衡,尽可能避免未来出现不可控的表现。新技术往往或多或少具有与转基因技术类似的风险和不确定性,预防性的、前瞻性的伦理应该走在技术的前面,使技术的发展遵循一定的伦理原则、法律法规的约束,在实践层面更好地为人类服务,最大限度地发挥正面价值,抵消负面价值。[10]



[1] http://www.xinhuanet.com//science/2017-07/05/c_136419371.htm

[2]谷歌在1999年提出的“不作恶(Do not be evil)”经营理念,谷歌“不作恶”的理念影响了几代互联网企业,后来成为各国主流互联网企业的共识。“科技向善(Tech for good)”其实包含了“不作恶”,并且在“不作恶”的基础上有所发展,即保护和发展相统一。发展建立在保护的基础上,而保护是为了更好的发展。

[3]弗兰克纳给功利原则下了一个明确的定义。"功利原则十分严格地指出,我们做一件事情所寻求的,总的说来,就是善(或利)超过恶(或害)的可能最大余额(或者恶超过善的最小差额),参见威廉•弗兰克纳善的求索,辽宁人民出版化,1987

[4] 近年来技术伦理学作为一口新学科的诞生而言,其直接的理论来源就是约纳斯的责任伦理学。无论是出于善意还是恶意使用技术,都可能产生伦理问题。即便当它被善意地用于其本来的和最合法的目的时,技术仍有其危险的、能够长期起决定作用的一面。”(汉斯•约纳斯,技术、医学与伦理学:责任原理的实践,上海译文出版社,2008

[5] http://www.sohu.com/a/279727329_361784

[6]温纳在《技术物有政治性吗?》一文中提到了这样一个事实:纽约长岛公园大道上的天桥格外低,桥洞高度只有9英尺。长岛天桥如此之低是为了阻止公共汽车驶上公园大道而有意设计的。拥有小汽车的“上层”白人和“舒适的中产阶级”,可以自由使用公园大道进行消遣和通勤。而通常使用公共交通的穷人和黑人却被阻挡在了公园大道之外,因为公共汽车有12英尺高。这样的结果限制了弱势种族和低收入群体进入琼斯海滩。这种天桥设计的本质是通过技术行为来实现特定的意图,导致技术之不公正、不公平问题由此产生。

[7] 陈瑛:谈科技伦理,http://www.people.com.cn/digest/200011/17/kj111704.html

[8] 欧盟委员会关于可持续性的建议书(EC,2008

[9] 参见http://scitech.people.com.cn/n/2015/0417/c1057-26861437.html

 

[10] http://news.ifeng.com/a/20170118/50590655_0.shtml

个人简介
首席经济学家,香港中文大学(深圳)SFI客座教授,行为经济学者,创新发展,金融投资专家,南开大学经济学博士,荷兰maastricht管理学院mba,兰州大学数学学士 email:prophd@126.com
每日关注 更多
郑磊 的日志归档
[查看更多]
赞助商广告