人工智能能否替代组织智慧?

徐健 原创 | 2016-05-11 17:10 | 收藏 | 投票

作者:广州徐唐咨询创始合伙人 徐健 

谷歌机器人阿法狗战胜韩国围棋高手,人工智能未来的前景难以想象。按照文科生一般的逻辑:人工智能依据的是人类的知识经验,并模仿大脑神经的自我学习机制。那么,人类从经验中学习,机器人从人类整合的知识经验中学习,这两者的后果是否都会遇到一样的麻烦,或者说是两个不同的麻烦?

马奇的《经验的疆界》,讲的是组织学习。结论是从经验中学习是有缺陷的。这本薄书的主线:人们缔造组织智慧,分为低智和高智学习。前者是复制的学习方法,后者是通过模型和故事的方法来创造智慧。

复制是低智学习,以模仿试错或淘汰为主。问题在于所复制的经验,有的非常复杂;或者经验不反映现实;或者是因为人们选择一种经验学习,往往忽略了另一种好的经验;也或者是,因为特定的经验选择反而降低了绩效(因为总是朝一个方向努力而最终落后),这是组织低智学习的缺陷。

高智学习的意思是不强调纯复制,而是要探寻事物的内在因果关系。其中一种方式是模型方法,指的是数学模型或理论框架,在数量化和逻辑严密的结构上有要求(比如决策数学模型或人力资源数量规划模型),试图通过相对简练的方式,结合丰富数据来诠释经验(有方法论的缺陷);另一种就是故事方法(比如案例教学、报告或叙事式沟通)。但人们往往喜欢简单的因果关系、歪曲观察与结论、固执定见,影响了故事的构建。而且,这些故事在学习网络中相互传播,而广泛传播的未必就是真相。另外,这些故事体现出人类深信不疑的心智模式,比如强调理性化,适应环境和领导力的作用,有时候往往会阻碍了创新。

组织故事还包括正义、真理和美的属性。真理(事实真相)、正义(道德伦理)和美(科学逻辑周密),是一种社会结构要求。组织追求公正、道德与真理三位一体的智慧学习,人们方有幸福感。但是,组织从经验中学习,光追求真理就很难。

原因在于,故事模式中的人们,相信直接经验的鲜活性:一朝被蛇咬,十年怕井绳。导致人们对直接经验的看重,超出整体经验的水平;人们依靠语言和符号(讲故事)所诠释经验也是模糊的:中国人习惯咬文嚼字,同样的事情有千百种解释,即灵活又片面,且难以解释因果关系复杂的事件。另外,组织有目标导向的要求,不一定以科学知识观为主,更多采用工程学知识观,即以实用及方向性为主。

既然人类或者组织从经验中学习,有那么多问题,那么机器人呢,是不是可以克服弥补所有的问题?从低智学习和高智学习的模型方法角度,人工职能有这个替代趋势:企业在战略与商业分析、用户行为以及人力资源决策上,已经越来越多依赖于数据与计算机模型。问题在于,组织智慧是否只需依靠靠理性模型的学习方式,而丢弃人类的故事模式?

在组织中,真理、正义和美这些功能是一体的,人工智能或许可以通过模型接近真理,也可充分展现出数学之美,甚至超出人类的想象,但是正义呢?类似企业价值伦理与市场竞争的平衡、情感与理性关系的平衡等,是否机器人将来也能赋予情感并取代人类大脑,接力体现组织智慧的故事模式,从而导致人们在组织中的领导力、一般性原创或忠诚信仰,不再像如今强调的那么重要?

如果是那样,组织中的人们,还有什么有意义的事情可做呢?

广州徐唐咨询创始合伙人 徐健  个人微信公众号:管理新视界  www.ezitalent.com.cn

个人简介
广州徐唐咨询( ezi talent)创始人,企业管理咨询顾问。 联系方式:17727751309
每日关注 更多
徐健 的日志归档
赞助商广告