AI会如何改变经济的未来?北大仇心诚:AI的"弱环"是人的价值所在

界面新闻记者 | 张倩楠
界面新闻编辑 | 刘海川

2026年,AI的狂潮席卷而来。AI是过去200年来持续发生的技术变革的延续,还是翻天覆地、推动经济爆炸式增长的技术革命?3月17日,北京大学光华管理学院助理教授、北京大学经济政策研究所副所长仇心诚在北大光华两会后经济形势和政策分析会上对这一问题作出解读。

“历史提供了参照。”仇心诚表示,过去150年间,大致代表技术前沿的美国人均GDP的年增长率始终维持在2%左右。这150年间,我们经历了一系列”翻天覆地”的技术变革,包括电力革命、汽车与航空、抗生素、半导体、个人电脑与互联网。这些技术中的每一项都曾被视为将根本改变经济面貌的革命性创新,但是,它们又从来没有让经济的长期增长率起飞过。

“也许,每一代新的通用技术,并非将增长率推向更高水平,而是在上一代技术的创新红利耗尽之前接过‘接力棒’,避免了增长率下滑。也许,如果没有出现计算机的话,增长已经掉下来了,而计算机接过了接力棒,让增长继续维持。也许,AI就是最新的一根接力棒,使增长率继续得以维持。即使如此,这种贡献也是巨大的。” 仇心诚说。

仇心诚介绍,这涉及到经济的”弱环效应”:经济生产就像一条链子,由无数个”任务环节”串在一起。链子的强度不取决于最强的那一环,而取决于最弱的那一环。打个比方,建房需要打地基、砌墙、接水电、装门窗、做防水、刷油漆。油漆刷得再好,防水没做好,房子照样不能住。AI可以让很多环节变得非常强,像写代码、做数据分析、翻译、客服等。但是只要还有环节是AI做不了或做不好的,比如某些需要人类判断力、创造力、身体灵活性的任务,那么经济整体产出的提升就会受到这些”弱环”的限制。

这意味着,即使AI把软件行业的生产效率提升到无穷大,能免费、无限量地供应所有软件服务,对GDP的整体提升也会很小。因为软件目前在GDP中的占比只有约2%,弱环效应下,如果其他”环节”不变的话,总体改善就只能约2%。

因此,AI带来增长的关键在于让更多的任务可以被自动化。光是让已经自动化的任务做得更快,贡献总是有限的。而把更多任务从“人工模式”切换到“机器模式”,才能带来更大的增长。

现实将产生三个情景:一是”永远有人的事”,始终有约5%的任务只有人能做。二是”机器终将做到一切”,所有任务最终都可被自动化。三是介于两者之间,自动化比例不断上升,但无法在有限时间里达到完全替代。

仇心诚介绍,斯坦福大学Jones教授和Tonetti教授的最新研究,利用了一个带有”弱环效应”的任务模型,预测了AI对未来经济的影响。惊人的发现是,在未来75年的时间尺度上,这三个情景下的GDP路径几乎一样,对于未来经济的分歧要到更久以后才会显现。这是因为弱环效应让增长的爆炸性变得温和,让它变成了一个”慢慢加速”的过程。

“这意味着,不管你对‘机器替人的终点’持有什么样的信念,中长期内AI对经济的影响是一样的。你不需要现在就押注哪个情景是对的,到时候我们会有更多的信息来判断。而在这温和增长的75年时间,也给了我们充分的时间去思考,如果AI真的出现爆炸式的增长,我们该如何应对。” 仇心诚说。

仇心诚认为,我们需要关注三个问题。一是劳动力市场的问题:工作会消失吗?这是很多人最担忧的问题。AI对劳动力市场的影响,比”机器抢走人类工作”的叙事要更为复杂。关键同样在于弱环效应。

2016年,深度学习之父Geoff Hinton说,应该停止培养放射科医生,因为AI将很快在医学影像阅读方面超越人类。十年后,放射科医生的数量不减反增,薪资也有所上升。为什么?因为放射科医生的工作不止是阅读影像,还包括与患者沟通、与临床团队协作、整合临床信息做出综合判断等。AI替代了”阅读影像”这个任务,反而提升了医生在其他任务上的边际价值。

这正是”弱环效应”在劳动力市场上的体现:工作是一组任务的集合。当一项任务被AI取代后,剩余的”弱环”任务恰恰因为成为瓶颈而获得了更高的要素回报。当然,如果一个岗位的全部任务都被AI替代,该岗位的薪酬将下降至机器执行的边际成本水平。因此,AI对不同职业的影响将呈现分化的格局:部分岗位因互补效应而受益,部分岗位因替代而萎缩,还会有大量新的任务类型和职业形态将随着技术演进而涌现。在AI实现完全替代之前,缓解就业焦虑,应当关注机器做不好的”弱环”,”弱环”恰恰是人的价值所在。

二是收入分配的问题:AI做大的蛋糕,如何分?如果AI确实带来了经济总量的大幅提升,谁能分享这些新增的财富?历史上,大多数人的生产资料是劳动,通过出租劳动力来获取劳动收入。如果AI大规模替代人类劳动,那些不拥有AI相关资本(包括算力、数据、模型)的群体将被边缘化。这个问题没有现成的答案,但这是一个紧迫需要我们思考的问题。如何确保AI时代的繁荣具有包容性。

三是也许更哲学性的灾难性风险问题。第一类风险是工具滥用风险。随着AI能力的持续提升,恶意行为者可能利用先进AI制造破坏。如果坏人让AI去设计比已知病原体更为致命且潜伏期更长的新型生物病毒,后果将不堪设想。核武器风险的”红色按钮”仅掌握在少数国家手中,而先进AI的扩散可能意味数十亿人都拥有了某种”红色按钮”。第二类风险是超级智能的失控。人类正在创造自己都不完全理解的新形式的智能。这些风险看似遥远,但其潜在后果的严重程度,使得提前思考和准备变得尤为必要。

“AI时代最大的风险不是AI太强,而是我们准备太少。” 仇心诚说。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平