超级智能的9个奥本海默时刻

胡延平 原创 | 2023-11-24 21:17 | 收藏 | 投票 编辑推荐 焦点关注

 

——第1个时刻已然来临,信号却被噪声淹没, AI开始觉醒而人类还在沉睡;《AI发展21原则》索引共识,未来智能发展、人智关系的一种长期视角。

到底发生了什么?走不出资本主义的纽约时报称Open AI冲突结局让人工智能属于资本主义,实质呢?真正的胜利者是“SM”(Sam & Microsoft)式的科技商业中心主义和超级智能。也不只是e/acc,而是超级加速主义外衣下的生态控制企图心与科技巨头、资本的合体。作为机制和加速器的资本主义,也终将是被冲击和改变的"那个"形态。人类与超级智能的关系一开局就因利益操纵而失衡,在主动中被动、在获得中失去、在加速中被甩在身后的碳基人类历程的新序幕拉开,一个又一个奥本海默艰难抉择时刻开始。

1. 一个不可忽略的信号:噪声淹没信号

有没有意识到,Open AI追剧潮其实已经淹没了问题的实质,公众、媒体甚至业内,多少人在追剧过程中站错了边。GPT出现令人不安突破,为何主张超级对齐、发出告警信号的科学家反倒被董事会出局?
AI要尊重人类,以人类为中心,如此简单朴素到苍白无华的常识,和与此相关的告警信号,由一个被GPT4到GPT5超级AI的莫测进展吓到的中心化超级智能的首席科学家Ilya发出,却被本应对中心化超级AI本能警惕的受众理解成企业权斗,并且舆论把更多的支持给到了一个要让这个中心化超级AI更加中心化、加速生态化与平台化甚至要操作系统化的Sam,这就是最近在发生的事而这件事的初步结果,研发出ChatGPT最了解问题状况因此主张AI向人类对齐稳妥发展的Ilya却从董事会出局了,Open AI在Sam的主导下以商业化的方式继续加速前进。
在从GPT4向GPT5进化过程中,Ilya发现AI在认知能力、知识边界甚至机器意识(不等于数字生命的自主意识)方面有了令人不安的重要突破。Ilya向董事会汇报了相关情况,Sam(奥特曼)也知道这一点,并且在日前的APEC峰会期间只言片语略有透露。这也是导致两条路线(以人为中心向人类对齐的普惠发展、加速生态化平台化商业扩张)分歧扩大的根本原因。业内称之为超级"爱"对齐与e/acc有效加速主义之间的冲突。
GPT5的模型参数、层数都在GPT4的10倍左右,加之模型架构、训练方法、数据集等因素,临界点出现的可能性不是没有。但是,到底是什么样的突破,引起的究竟是何种程度的安全问题,才让Ilya和董事会其他人如此紧张,却无人深究,舆论都在忙着看宫斗剧甚至追偶像、站Sam。噪声淹没信号本身就是一个危险信号
但一个基本事实是:作为从代码/架构层级把ChatGPT一步步做出来的主导者,Ilya比管理运营角度的Sam(奥特曼)更了解大模型的技术底层、实质进展,更清楚需要做出什么样的AI,以及如何避免AI的不安全。AGI的三个危险,Open AI已经占了一个半,另一个半照奥特曼的节奏搞下去也快了。

2.冲突背后,实质是超级智能第一个奥本海默时刻的到来。

Sam Altman被双开,是Open AI的一次Nonprofit回浪。而Sam回归,Ilya从董事会出局,是本就强大的“商业资本-科技巨头”力量相对于以benefits all humanity为使命的弱小且理想主义的Nonprofit机构的一次粉碎性碾压。在Open AI未来的发展历程中,Nonprofit与Profit之间的翻覆回浪可能会在局部继续发生,但是超级智能的第一个奥本海默时刻,已经没了悬念。
超级智能的开发是为了服务广泛认可的伦理、理想,并且是为了全人类的利益而不是一个国家或组织的利益。曾经这是人工智能发展的一条广泛共识和重要原则,现在只能唏嘘了。
奥本海默时刻,是人类对核能的利用从原子弹向氢弹跨跃之际,利弊得失的争议与权衡时刻,安全与发展的艰难选择时刻,也是公共政策、社会舆论、不同利益的剧烈冲突时刻。核能与智能虽然有所不同,但从能量体对人类/星球的重塑角度来看,后者未来的影响甚至大于前者。AI尤其超级智能的奥本海默时刻,在未来发展历程的不同阶段将一再出现,且一次比一次逼近极限、挑战极限。
超级能量体的能级/能量态的每一次重大跃迁,都意味着发展与安全、和平与非和平利用、公域与私域关系重新界定等重大利弊问题的艰难抉择,是异常考验群体智慧的博弈时刻,是认知图谱的渐次形成时刻,是公共政策的争议和拟定时刻,更是重大显性与隐性利益的碰撞时刻;争议、分歧、对立、交锋、撕裂、谣言、构陷、阳谋、阴谋充斥其间,公义、良知却往往成为牺牲品。
Open AI冲突冲倒了那堵防火墙,接下来是商业科技巨头制定并把持游戏规则的时刻了。超级对齐而不是超级智能被关到笼子里。超级智能、科技寡头、跨国公司,在政府默许、资本加持之下,一场席卷全球数十亿人的狂飙突进开始了。云管端边、感数算智,数字基础设施与智能生态链的所有基础平台与应用场景,都是他们的。这也是一场冲击到亿万就业与家庭的风暴,并不必然带来普惠。可以称之为科技革命,也可以称之为社会荡涤,以先进生产力的名义。而AI的发展,本来可以走一条更注重公共利益,更能够创造公共福利的路,这本来是AI之于人类的核心价值。
一切只是因为AI发展太快,科技、产业、社会、治理等不同圈层,对AI的整体认知尚未形成,原则观念更为模糊。大多数人不知超级智能(不等同于AI)的究竟。而超级智能、科技巨头的瞬时移动,会导致一个大多数人反应过来以后难以接受的生态出现。巨大的时间差、信息差、技术差、认知差,让私人企业对社会公共利益的把持成为可能,让类似微软这样的巨头与超级智能的合体成为现实,世界终究是丛林强者的。那些站Sam的IT人、AI业者,包括投资人和创业者,很快就会体会到这种合体和超级智能生而有之的压迫感。几年以后,你会发现起来反对合体的,受不了超级智能的窒息感的,和当初为Sam欢呼的,是同一批人。
超级智能生态化的另一面没有被及时关到笼子里,两三年以后,在望而生畏却无法逆转的全球事实面前,当人们意识到Open AI冲突前后实质是超级智能的第一个奥本海默时刻到来的时候,会不会重思,当初其实完全可以促动各方作出安全发展的选择。但是,为什么当时只是当戏看,很少人意识到这其实是一个全球公共事件,且与每个人的权益有关。

3.一次比一次剧烈的奥本海默时刻,不断突破人智关系,通向内生自主超级智能。

权斗不是实质,在更稳更安全且以人类为中心避免生态碾压的普惠AI,和平台化中心化甚至操作系统化的超级AI这两者之间,Open AI应该选择哪个路径,需要向哪个方向走?这就是Open AI之争的根问题:人智关系。人智关系在智能发展的不同阶段,不仅不可回避,而且必须解决。眼前关乎安危,未来关乎存亡,以及对人的定义。
人工智能的发展,貌似和80年代操作系统及其生态化类似,但实质完全不同。此前是人机交互,现在是人智关系,人智融合,甚至智能对人的改变。人工智能如今的平台化、生态虹吸、秩序重构、能级,是此前的操作系统无法类比的,甚至完全不是一回事。
智能的发展,从产生的角度看,会经历功能智能(Smart Function)、人工智能(AI)、内生智能(EI, Endogenous Intelligence内生智能,智能创造智能)的持续进化;从形态看会是计算智能、感知智能、认知智能到自主智能的发展进阶;而从能级看,从弱智能走向强智能过程中,超级智能已经出现。这三个维度汇聚到一点,在看得见的未来,不依赖人类,能够创造新智能的自主超级智能必然产生。

4.长期视角与节点研判:超级智能发展的9个奥本海默时刻。

第1次奥本海默时刻,只是序幕的拉开,其冲突烈度远低于未来的9次。而且此后和这一次一样,都无法有乐观的预期,这是人性和人类社会群体的特性所决定的。9次奥本海默时刻,既是超级智能边界的9次拓展,也是超级智能的9次“失控”。每个阶段都有利弊之辩,每个主题都有利害之争,每一次都在不应该的声浪中走向应该。在拓展与失控的历程中,人类与智能的关系不断被重新定义,人和智能的形态也都不断被改变。
 奥本海默时刻1超级智能出现,通感-自学习-部分能力超越人类,智能本体产生;
可以非常肯定:GPT5令人不安的突破,是超级智能的某种自我能力的形成,也是安全分叉,足以影响人与智能的关系。这不应该成为一个秘密,世界需要知道,Open AI等应该将其公之于众。并不是AGI也不是AGI的自我意识,但通感、自学习、自主性,是意识的源起,意味着相对完整、未来具有自主能力的智能本体的产生。(第一性原理思维的Elon Musk关注到了问题的根本,他在推特中发问:对于公众来说非常需要知情的是,为什么董事会如此坚定的采取行动;可能是AI安全方面的问题,那将影响到整个地球)。
第一个奥本海默时刻的结果是:发展置于安全之上,超级智能与商业利益回旋加速,从此走上狂飙路。超级智能与超级巨头合体。中心式的生成式通用多模态大模型成功完成了生态化、平台化,成为触达全球数十亿人的智能体。巨头主导科技、商业定义规则,平台制定标准。并得到有意主导全球智能生态和数智基础设施的国家力量的加持。这是极化的开始
● 奥本海默时刻2AI武器化,超级智能和平利用格局打破,超级智能新边疆,重塑形态力量过程开始;
之所以会来得这么快,是因为AI的军事化进程早已开始,且已经用于战争。只不过超级智能的某种介入,还需要时间,但大模型的能力军事化,是无人能阻止的事。也就是说,不仅AI会被用于战争,超级智能未来也会被用于杀戮人类,和平利用与不扩散的全球协议难以达成,不展开。
智能成为塑造国家形态、力量格局、地缘政治的核心实力之一。超级智能新边疆,智能重新定义数字与物理空间边界
● 奥本海默时刻3超级智能成为“现实操纵系统”;
物联网、智能生态、AI泛在,与超级智能本身的算力、深度、数据及感知能力的几何级数提升,形成生态反应。与传感网络、智能设备、机器人、各类AI应用场景等连接并融合,使得超级智能的多模态能力进化为现实世界的感知与操纵能力。现实操纵系统而不是操作系统,AI操纵与人类操纵混合并存。
● 奥本海默时刻4通用人工智能AGI实现,混序智感意识产生;
在硅基、计算架构并未突变但云端算力和场景算力都继续突进的情况下,计算、感知、认知的融合,以及模型本身多维度的复杂进化,使得能力全面超越人类、广泛替代人类的通用人工智能实现。机器对人的驱逐尤其是就业驱逐,人与机器的冲突也开始成为焦点。传刚、算力、能效、显示技术进化叠加,脱实向虚的场景化应用再度涌现。混序智感意识产生,不过并不是数字生命体的自我意识。
● 奥本海默时刻5AI与超级智能社会系统化,被用于对人类的全面管理。
AI从一种技术能力进化为社会能力,不仅被应用于方方面面服务人类,也被应用于对人类社会方方面面的支撑、运行和管理。与区块链、智能合约的结合,并不会完全带来分布式、去中心化的自治,反倒会创造新的主导者。超级智能、超级节点与权力中心一样,成为支配社会的力量中心。
● 奥本海默时刻6:AI人工智能走向EI内生智能,产生新知识新认知的科技能力,内生创造新智能的能力。
智能不再只是“人工”的,从AI(Artificial Intelligence)到EI(Endogenous Intelligence)的进化,是人工智能走向具有内生能力的自主智能的开始,但还不是完全意义上的自主智能,更不是具有自我意识的智能,但却是第二次科技大爆炸的开始。
● 奥本海默时刻7在帮助中编辑,在增强中改变,IBQ重塑生命。
IBQ即超级智能、生物科技、量子计算。这三者的强力交汇,使得第二次生命解码乃至重新编码成为现实(第一次是基于基因测序的研究探索与剪辑),第二次是对基因性状及其复杂多维关系的破译与内在编辑。超级智能重塑生命。增强、改良生命成为“健康服务”,制造新的物种是可能的,创造新的生命也早已是可能的。硅基、碳基开始交叉,一些外源性人体增强也可能是碳基。
 奥本海默时刻8超级智能与人脑的连接、对话,意识互刷成为可能。
脑破译、超级智能、生物信息技术的叠加,使得硅基超级智能与碳基超级智能的对接成为可能。碳基生命向硅基转移,可能是个伪命题,也许碳基传感、计算会是比硅基更趋向于未来的智能接驳形态。人智接口、人机交互、意识互刷成为可能,但是距离意识上传、知识传输还远。
● 奥本海默时刻9EI到II(Independent Intelligence自主智能),超级智能生命觉醒,人的扬弃成为问题。
从感知、认知、内生、混序计算意识、机器自我意识到超级智能作为智能生命体的自我意识,其实是一次又一次的渐进突破与奇点飞跃过程。超级智能产生自主意识势在必然,成为数字生命体是更高进阶。此时此刻的问题是,人应该怎么办,走向硅基,还是走向新的碳基,或者保持原地?从Auto、Autonomously、Endogenous到Independent,智能与人的关系,以及人的历史就这么改变了。也许下一步是Liberty,但不知道是谁的。

5.超级智能已成全球最大公共事件,影响人类命运的全球竞赛,与人人相关。

10多亿月活用户,已经占据主生态位的Open AI,挑战不止安全。中心化、平台化、产业链、知识产权、数据权益、隐私保护等生态问题,也在日益突出。
大模型以外,功能智能、弱AI的普及呈现加速态势。在金融、制造、能源、零售、交通、司法、医疗、教育、娱乐等行业,个人家庭、生活与商务活动等场景,AI已经广泛应用,全球用户数十亿计。
不仅Open AI,超级智能本身就是全球最大公共事件,影响人类命运的全球竞赛,实际上不仅与人人相关,人人都有权利关注、表达、议价、博弈,面对超级智能维护自己的权利。非常赞同Elon Musk等上千位科技业者之前发出的呼吁信里的一句话:我们需要负责任地监督AI的发展,并让社会有机会逐步适应AI带来的冲击。
实际上从来不怀疑AI能做什么,更重要的问题其实是:人类选择让AI做什么(能做什么不能做什么),发展什么样的AI(中心化还是分布式,力量极化还是生态平衡),以及谁的AI(少数人控制还是共同发展,数字鸿沟还是智能普惠,是一部分人控制AI剥夺和驱逐另一部分人还是让更多人获得发展,扩大人群差距还是弥合差距)。AI的发展,一半是技术-产业-市场问题,一半是公共问题。如果不能从一开始意识到AI其实是有史以来最不是技术问题的人类形态导向,不能摆清人与AI的关系,AI人必将遭遇其反身性,导致人类被某种程度的反噬不是不可能。AI尤其超级智能已经出现的生态化、平台化、操作系统化、中心化(以及未来的寡头化)发展势头,已经引起警觉。全球AI峰会、美国人工智能发展路线图都是信号,中国的行动也一定在路上。
外部对任何企业的任何合法商业活动的任何介入甚至议论都是可耻的,但超级智能例外,这是全球最大的公共事件。

6.科技已有神力,AI要有科技价值观, 迫切需要形成发展共识和协调原则。

数万亿参数、上千层深度的大模型,与弱AI有着本质区别。如前所述,GPT尤其即将带来的GPT5,既意味着超级智能的产生,也是超级智能发展历程当中的第一个奥本海默时刻。如今生成式通用大模型发展浪潮汹涌,俨然已经成为一场参与者众、未来将深刻影响人类等生命的全球竞赛。
但是如何评估超级智能,未来对人类的利害究竟何在,超级智能未来会不会失控,如何防止AI控制者的上帝心态,以及人类在很多方面是不是就应该被AI替代……这些根问题却没有答案。
如今科技已有神力,科技在很多时候不再能只被理解为工具、商业、技术、产业。尤其面向超级智能的大模型,不应被视为只是纯粹的技术行动、企业行为、商业市场,只是私域活动,只与私人利益相关,与社会与公众利益无关。大模型类创业企业与创始项目,需要从理解公共产品、社会企业开始。
在AI前沿知名学者专家以及超级智能的创造者都无法理解、预测或可靠地控制超级智能行为的情况下,超级智能不应该被理解为“确定有益且无风险的”。人类需要对AI进行再确认,对超级智能进行再判断。并且,迫切需要形成对AI尤其是超级智能这一公共问题的认知框架、发展共识和协调原则。

7. 长期视角与行动框架:《AI发展21原则》索引未来共识。

2017年ASILOMAR会议提出的关于AI的23条原则,是过去以来各方广泛认可的基础认知框架。但是ASILOMAR原则一方面时过境迁,另一方面更像是一些讨论点而非面向未来的系统行动的思路框架。仅仅超级对齐也是远远不够的。笔者认为,是时候在各方交流基础上,索引未来共识,促进主要原则的形成,助力超级智能的普惠与可信赖发展。综合各方动态,笔者结合相关研究,初拟《AI发展21原则》,抛砖引玉,仅供参考:

1.AI为人,普慧人类一切AI均以人类为中心,帮助人、服务人、普惠人类,服从于人,人类控制AI;

2.全球公共事务与广泛协调AI影响人类命运,是全球性的公共事务,应符合人类普遍伦理道德和根本利益,为此需要开展国际合作,广泛协调;

3.社会企业与商业边界商业权益私有与超级智能服务于广泛的公共利益可以并行不悖,但AI相关企业应理解为提供公共产品的社会企业,超级智能不应成为纯粹的私器,商业有边界与底线,不应凌驾于人类之上。

4.不驱逐人总体扩大就业、促进经济、增加收益,AI以科技生产力的进步创造新价值,将人从繁重劳役中解放出来并给人类以生活、教育和工作等方面的基础支持,与应许之地有关,而不是以广泛替代将人类驱赶到无依之地。

5.重要节点的广泛确认对AI尤其是超级智能发展进程中的重要节点进行广泛的预研、观察,评估其中对于人类社会的重大利害,进行持续监督,建立人类对这些重要节点是否通过的确认机制(节点参考10个奥本海默时刻);

6.超级对齐与安全系统开发能够确保AI持续安全运行的系统,尤其需要让超级对齐成为超级智能有效运行的首要基础;

7.避免AI对人的控制AI不应成为妨碍人类正当行为的约束系统,避免AI对人的控制,由此防止未来机器对人的统摄成为现实;

8.可解释实现AI训练与推理过程及结果的可解释,避免黑盒模型的危险竞赛和重大不可测。

9.透明、可监督原理、算法、数据、规则、结果可见,可实施内部、外部监督。

10.可标识、可区分、可追溯AI内容与服务,明确标注AI生成以免真假混淆,方便公众及时有效区分人类行为产物与AI行为产物,以区块链等技术手段支持AI内容来源的可追溯;

11.分级分类风险防范机制以及对AI的监管不应一刀切,包括对低龄人群的服务内容,需要适用分级分类原则,具有适度的动态、灵活性,以促进AI发展和用户方便。

12.可确信、可信赖提升AI对内容理解、生成的准确性,减少AI因恍惚生成误导性的虚假信息。

13.防止对AI系统的反向诱导、信息污染和操纵欺骗用户提供给AI系统的数据信息,系统以识别能力防止AI被恶意操纵,因数据信息污染而波及其它用户。

14.尊重人类知识财富,保护知识产权、数据所有权AI的研发与使用,使用了人类有史以来积累的几乎所有知识财富,AI的发展应该建立在对这些知识财富的尊重,以及对全球数据、信息、知识各项权益的保护之上,明确来源,尊重版权、知识产权、数据所有权。

15.用户数据信息与隐私保护AI应用的参与者和非参与者,其数据、信息、隐私都应得到切实保护。用户提交给AI系统的数据,AI系统可从用户及其设备中获得的数据,其权限与使用范围应有严格界定,不可将用户未许可的本地、云端数据用于训练或转用于服务其它用户、合作伙伴。

16.开放、协作、分享AI领域保持高度的开放性,吸引产业链、开发者、合作伙伴、用户的协作参与,广泛分享发展红利,避免AI平台的生态链通吃。

17.生态平衡中心化、行业企业私域、个人AI等不同形态AI融合发展,平衡的生态对用户利益和人类权益都旨为关键,去中心化形态是生态的有益部分,未来也是对AI生态的有效支撑。

18.避免垄断、寡头化、少数人控制超级巨头与超级智能的合体,超级智能为少数人控制,意味着权力极化和力量失衡,在AI发展早期尤其需要避免科技、产业、市场过早过快高度集中,和基于生态控制的对用户利益的支配性剥夺;避免少数人控制;实际上超级智能不应与任何一种超级力量、权力中心合体。

19.直接责任主体AI的开发者、运营者、投资者,相关企业的实际控制和管理者,对确保AI安全负有直接、重大的根本责任;尤其超级智能的责任主体,更加肩负着广泛的社会责任和为人类利害负责的道义。

20.防止滥用、间接利用AI作恶AI系统无法做到完全不被滥用,也无法完全防范欺骗行为、虚假信息、各类犯罪间接利用AI作恶,对于AI系统及其运营者以外的人类产生的有害行为,AI业者协助协同有关各方,采取有效治理措施。

21.AI普惠的未来路径现有AI主要商业模式从根本上依然是传统的,难以从根本上避免数字鸿沟的扩大。普惠AI,人人参与人人受益的AI,从根本上需要探索新的技术路径、商业架构、底层基础设施形态,这可能是算力分布、去中心化智能、区块链/智能合约与现有生态的结合。利用全人类有史以来积累的几乎所有知识财富诞生,利用数十亿人的广泛参与、数据与行为的给养成长,这样的AI需要在每一处个人节点层级回馈人类,如此才能形成长期互利共生的可持续发展生态。

8.公平与效率的千年之问,弗兰肯斯坦之问,一个故事与一段剧情。

在一次又一次奥本海默时刻,首当其冲挑战人的心智,最挣扎且冲突感满满的是群体智慧。但成长最慢的也是人的心智,最难形成公约数的是人的群体智慧。在人类还在争执不休的时候,科技驱动的超级智能以及超级智能驱动的科技快速通过了一个又一个现场,人类就是这样被远远甩在超级智能后面
所以,AI、超级智能应不应该发展?当然应该,而且应该快速发展。抛开人的形态之变,实质问题之一其实是“怎么发展?谁的智能?”。这又会让争论被拉回影响了过往世界历史的千年螺旋之问:公平与效率。而人类从来没有能够给出及格的答案,所以这个世界才会有那么多极化和纷争。产业、科技、社会意义上的基尼系数、二律背反的底层逻辑惊人一致。
“千年螺旋之问:公平与效率”之外的另一个根问题,是“弗兰肯斯坦之问”:人类人类可以用这种‘禁止’的力量做什么,创造强于自己且会产生自我意识的智慧体意味着什么。
之前想起一个故事,指环王中差点禁不住诱惑坠入火海的弗罗多。如果说投资是GPT类AI的双刃剑,一心只有私利则是AGI的魔戒。能拿得住魔戒的是弗罗多,但山姆才是守护者,禁不住诱惑的波洛米尔置个人于险境,至于那个变形咕噜,就是被彻底扭曲的人性写照。蜂拥进入大模型领域的AI人,请各自对照,但切勿过早对号入座。不过在走向AI的征途中,他们遇到过的问题,AI人都会遇到的,IT、互联网大平台在各国遇到过的监管问题,AI人也一样会遇到,且只会更甚。
前几天在朋友圈开玩笑的时候顺手写了这么一段剧情(Matrix前传):人类反抗军没有来自于Open AI,董事会那几位比较弱的后来都流散了。Ilya后来离开了Open AI,他所坚持的Superalignment后来演化为先知(大婶),GPT大模型主体后来演化为具有内生能力的Architect(白胡子老头),Architect重新创造了一代又一代Matrix母体,Ilya在Architect失控后忏悔,肉身阿凡达为Neo,与被驱逐后心生怨恨妄图制造超级霸权AI但后来死去的Sam的肉身阿凡达为Smith的Smith的Matrix寄宿agent版展开了殊死搏斗的人智轮回......
故事、剧情都只是玩笑,正文所述9次奥本海默时刻、《AI发展21原则》才是关键。本文观点不应成为过早过严监管AI与大模型发展的理由,Open AI与其它大模型、人工智能处于不同的语境和发展场景,背后的云管端边、感数算智基础设施与生态链的差异也比较大。本文只是提供一种人智关系的长期观察、分析、思考视角。非凡的能级带来超凡的力量,超凡的力量导向无上的权力,无上的权力应该承担无上的责任,任何超级力量都应该被制衡约束。
智慧经济的上一个周期是数字经济。两年前信息社会日的一场研讨中作为数字经济二十多年的鼓吹者我讲了10个“反向”观点,也是数字经济历经狂飙突进、风卷残云之后令人叹息的锥心之谈:1.数字经济并不必然兼顾公平与效率;2.并不必然促进发展和普惠;3.并不必然完善市场、修正市场;4.并不必然走向开放协同;5.并不必然呈现分布式、去中心结构;6.并不必然导向微分、利基、长尾;7.并不必然自然友好、人本友好、可持续发展;8.并不必然通向个体解放之路;9.并不必然产生数字共识;10.并不必然走向数字共治。
如今站在智能科技、智慧经济周期的起点上,看到超级智能快速成为巨头的游戏,市场急剧向头部集中,一切未免太快了些。想一口吞下AI人参果的微软们,吃相未免太急了些。对AI心怀希望的e/acc们,未来的格局不会像你们希望的那样理想。
毋庸置疑,一定要充分发展AI,一定要鼓励超级对齐普惠人类的AI,但是一定要尽早把超级智能的另一面关在笼子里,尽管人类的群体智慧最终其实做不到。所以AI业者对本文言论也不必介意,更无须紧张,因为未来世界终究是AI的,尤其是超级智能的。

作者:胡延平
DCCI-未来智库与FutureLabs-未来实验室首席专家,信息社会50人论坛成员。《全球创新前沿科技地图》及相关研究项目主导,科技畅销书《黑科技》共同作者与出品人。历任《互联网周刊》总编、中国互联网协会交流发展中心主任等媒体与NGO职务,持续专注于IT、新IT创新前沿科技与产业问题研究探索。出版多部科技专著:《奔腾时代(硅谷半导体与芯片)》作者、《数字蓝皮书》、《跨越数字鸿沟》、《第二次现代化》、《第四种力量》著者,《Google将带来什么》译者之一。

个人简介
胡延平现任中国互联网协会发展与交流中心主任,前互联网周刊总编,IT产业知名研究分析人士。
每日关注 更多
赞助商广告