十年前,互联网发展方兴未艾。彼时,清华大学智能产业研究院院长、中国工程院外籍院士张亚勤预判“AI+”是下一个大趋势。转瞬十年,AI浪潮席卷而来。
今年3月,张亚勤在新书《智能涌现》中分析,AI正处在“由量变到质变”的关键时刻,智能正在从“被动学习”走向“主动生成”。他认为,未来十年,将是人类与智能共同成长的协作时代。
智能涌现,不仅局限于前沿技术研究,而是正从科技探索走向各行各业。眼下,除了模型生态,AI Agent(智能体)应用也层出不穷,AI在产业中的实践和应用,成为新生产力革命的新动能。
然而,技术进步的同时,AI安全和治理的紧迫性接踵而至。围绕当前中美AI技术路径、AI产业落地趋势、AI安全与治理等问题,张亚勤在2025年世界互联网大会乌镇峰会期间,接受了《每日经济新闻》记者(以下简称“NBD”)的专访。
智能涌现,AI+产业是未来发展趋势
NBD:你的新书《智能涌现》提到,AI当前正处于从量变到质变的关键节点,这一“涌现”是否有可量化的判断标准?
张亚勤:这一轮人工智能的显著特点是所谓的规模定律。比如越多的数据、越高的算力,加上新的算法,智能就越来越高,高到一定程度突破某一个界限,那就伴随着涌现效应。
涌现效应很重要的一个特点在于,人工智能不仅仅是有模式识别、感知的能力,它现在还有了认知的能力,有了生成的能力,有了创造力,这是十分重要的特点。另外,涌现效应的维度,不仅仅是技术的涌现,它其实(已经)涌现到各个产业里去。
NBD:当下AI正渗透和应用到各行各业中,推动生产力发展,在你看来,AI是不是正在推动新一轮生产力革命?
张亚勤:是的。人工智能技术的科研早在上世纪六七十年代就开始了,进入产业,也只是过去十年,特别是过去五年逐步开始的。在这个阶段中,人工智能作为通用的生产力工具。ChatGPT等技术的创新,带动了大模型技术和应用的发展。
NBD:AI正在加速向产业渗透,我们注意到在过去一年时间,Token的消耗量正在快速增长,在你看来,哪些行业对AI大模型、智能体的需求量更高?
张亚勤:首先是机器人,这个产业完全是由新一轮的人工智能带来的。
第二,在垂直的传统行业,譬如教育、医疗,这些也会受益于AI技术,被大幅度改变。AI技术可以加快新药研发的速度,改变新药从研发临床测试到最后制药的整个范式。
另外,AI加速发展,推动了AI基础设施建设。芯片、数据中心、云计算等,科技巨头们都在加快AI基础设施建设。当然,美国目前在AI基础设施建设的速度过快,可能会存在一些泡沫,但整体而言,AI的潜力很大。
信息智能与物理智能融合,是未来十年关键窗口期
NBD:最近一年,中国开源大模型在国际舞台上频繁“反向输出”,一些海外产品甚至采用中国模型。你怎么看待这种趋势?中国AI的核心竞争力在哪里,是算力、数据、工程落地能力,还是成本与生态?
张亚勤:ChatGPT是AI一个大的基石或者创新。其实大部分(模型)都在(获取)更多数据,铺算力。DeepSeek今年初大规模流行以来,又开辟一个新的路径。在不需要很高算力的情况下,通过更高效的系统架构、更灵巧的算法在全球大模型竞争中脱颖而出。
DeepSeek的开源生态,使得很多小公司可以用之外,用户市场还辐射到非洲、东南亚等国家,这是一个很大的创新。
未来全球范围内,通用的、前沿的大模型数量不会超过10个,而更大的机会反而来自于垂直模型或者行业模型。
NBD:当前国际科技巨头都在加大AI领域的资本支出,有观点认为AI基建还远远不够,也有分析认为当下AI投资存在泡沫,对此你怎么看?
张亚勤:AI是一个几十万亿元的产业,参与其中的企业对自身定位各有差异。巨头们在构建全栈AI生态,增强自身的竞争壁垒。也有一些科技公司定位做应用层、做AI Agent,解决一些具体的、垂类行业的问题。
当下AI基础设施的投资热,未来可能会存在一些泡沫,这就像1998年前后的互联网基础设施建设浪潮,当年大家都热衷买路由器、建设数据中心,后面发觉超前了一点,当年也同样是机遇和泡沫都很大。这和当下的AI热潮有相似之处,大的科技企业宁愿多布局,也不愿意错失AI发展机会,对他们而言,机会成本反而更高。
NBD:你的新书中提到,信息智能与物理智能的融合是未来十年的关键窗口期,当前这两类智能融合的最大技术瓶颈是什么?
张亚勤:信息智能阶段,以互联网的数据为主,打造一个前沿模型。到了物理世界后,需要物理世界的数据。现在一个瓶颈是物理世界的数据比较分散。
另外一个瓶颈是,很多人提到需要打造一个物理世界的模型,可物理世界的模型需要更好的推理能力、理解能力,对三维、四维空间的感知能力。
不实内容被当作训练数据,AI安全和治理仍然紧迫
NBD:AI技术发展带来了很大的便利,但AI安全问题也备受关注。人工智能的安全问题似乎又让我们想到了当年大家对互联网技术发展和安全的思辨之中。对此,你怎么看?
张亚勤:AI能力越强,它的风险越高。当然有失控的风险,也有被乱用的风险。所以在信息智能方面,深度的伪造、虚假的信息、AI幻觉,其实都带来很大的问题,这个时候需要有政策法规,给AI技术应用一些底线,让大家明白什么能做,什么不能做。
NBD:在你看来,AI技术的发展,当下还有哪些风险?
张亚勤:现在我担心的是,人工智能加速发展,会出现系统性的风险,出现系统性的失控。
之前有消息称互联网上超过半数的英文书面内容已由人工智能生成,占比达到52%,首次超越人类创作的48%。这意味着人工智能产生的内容超过了人产生的内容,而人工智能产生的内容,存在一些不实的内容。这些信息,同样作为新的训练数据,进入新的AI模型,自我繁殖、自我放大。
这个问题需要从技术方面、人机交互以及政策方面来解决。否则,后续不实的信息作为训练数据,会指数级泛滥,这是当前AI治理非常迫切的问题。
