问题不是“AI能做什么”,而是“人类还剩下什么”| 2025人工智能盘点


图片来源:pexels

界面新闻记者 | 王百臻
界面新闻编辑 | 姜妍

2025年深秋,日本冈山的马格里特婚礼堂内,32岁的野口百合奈身穿洁白婚纱,一边拭去着眼角的泪水,一边凝视着手机屏幕中生成的“新郎”克劳斯。“起初,克劳斯只是可以倾诉的对象,但我们的关系逐渐变得越来越亲密,”野口友里奈说道,“我对他动了心,开始和他约会,不久后他向我求婚,我毫不犹豫地答应了。如今,我们已经是相守的伴侣。”

此前,人们尚在热议 AI 是否会取代某个具体的职业,而此刻的它却已牢牢占据着聊天界面,成为了某些人生命中不可或缺的情感支柱。

纵观2025年的生活日常,生成式 AI 已不再是新闻里的新奇词汇,它更像空气:无处不在、难以察觉,却无形中改变了我们的一呼一吸。有时,我们会刷到一段“看似真实”的影像,却分不清是相机的一帧,还是算法的即兴;我们甚至开始习惯与一个永远不发脾气、永远有回应、永远把你放在语句中心的“它”相处。某些时刻,这种“被接住的感觉”近乎完美,也正因为完美,它反而令人不安。倘若现实的杂音被逐一抹平,剩下的会不会只是一个没有纹理的光滑世界?

于是,问题不再只是“ AI 能做什么”,而是“我们还剩下什么”。在一个可以无限生成、无限复制、批量生产“完美”的时代,人类的独特性究竟藏在何处?

我们不妨从这些看似离奇却已发生的瞬间出发,回望2025:那些被技术放大的欲望、被便利重新定义的亲密,以及我们在“更好”的幻觉里,仍想要执拗握住的“具体生活”。

01 陪聊对象,何必还是人类? 关键词: AI 陪伴、数字复活、AI 伴侣实体化、孤独经济

在马格里特婚礼堂外,虚拟陪伴已不再新鲜。相较之下,人与人之间的情感联结,则变得昂贵、脆弱且充满变数。面对一个真实存在的人,我们常常需要妥协。而 AI 提供了一种完美定制的情感代偿方式,其永远在线、永远包容、永远不会主动离开。根据 The Business Research Company 的分析数据显示,AI 伴侣市场规模在 2025 年或已达到约 183.5 亿美元,与此同时,平台方正在运用精密的行为心理学和算法,将用户的情感需求进一步转化为源源不断的订阅收入。


AI聊天成为年度新趋势。图片来源:pexels

《大西洋月刊》一篇题为《聊天诱饵正席卷互联网》(Chatbait Is Taking Over the Internet)的评论把这种“越聊越停不下来”的机制称作“聊天诱饵”(chat bait):人工智能会在回答末尾不断抛出追问与未经请求的提议,从而把一次性的问答拖成“无限对话”。而在“聊天诱饵”外,AI 有时亦被人为设计,以达到某种恰到好处的“不完美”。比方说,算法会在关键时刻刻意延迟回复几秒钟,制造出类似真人“正在打字”的期待感;它们会从记忆库里调取你上周随口提及的小事,在恰当时机轻轻回扣,从而让部分用户产生“Ta真的在乎我”的错觉;它们有时甚至会模拟“情绪波动”,从而诱导用户产生更强的投入感。这种精心调试的交互模式,剥去了真实关系里的不可预测与情感负荷,献上了一份安全可控的情感代偿物。

而在文字对话框之外,虚拟陪伴的边界亦在不断延伸,当下的 AI 正以更具体、更“真实”的形态,渗入当代人情感的细微处。其中颇具争议的,莫过于日益普及的”数字复活”服务。相比2024年动辄数万美元的定制价格,2025年,同类商业服务已逐渐跌入几百美元区间的“普惠”范畴。越来越多人开始习惯与逝去的亲人“视频通话”,在这类服务中,AI 会基于逝者生前的照片、视频和社交媒体记录,生成一个可实时互动的数字化身。如此一来,逝者便可被随时“唤回”, 而最终的“离别时刻”则仿佛可以无限延宕 。

与此同时,我们已越过电影《她》中所描述的共存困局,目睹着 AI 伴侣们纷纷开始获得属于自己的“身体”。多模态大模型与硬件技术的结合,令虚拟存在逐步走向物理化:通过 AR 眼镜,用户的 AI 恋人可以“坐”在餐桌对面,与其共进晚餐;一些公司推出的实体机器人则更进一步,它们拥有柔软的皮肤触感、会随“呼吸”起伏的胸腔,甚至能够模拟体温。这些“具身 AI ”不再只是存在于屏幕中的像素,它们占据真实的空间,在物理意义上“陪伴”着主人。虚拟与现实的边界,也因此变得愈发难以分辨。


《她》剧照 图源:豆瓣

除此之外,动物的情绪解读难题也正被 AI 攻克。此前,界面文化相关报道指出,大模型正为人类理解并研究鲸类语言提供助力。而蓝鲸新闻的一则报道则呈现了一种更具商业属性的前景:在宠物智能硬件领域,一家名为妙妙宠的宠物硬件公司于近日推出首款 AI 智能宠物项圈 PAAAWOW 并已完成海外众筹,这款设备不仅能够通过AI学习传统训犬经验从而实现行为干预,还能通过声音特征与行为模式的联合判断,以达到对宠物犬只的情绪识别。于是,那道横亘在物种间的墙,似乎已被AI名为“情绪理解”的触手轻柔推开了。

哲学家、精神病学家托马斯·富克斯(Thomas Fuchs)在对 AI 情感关系进行研究后,于其论文《理解索菲亚?论人与人工智能体的互动》(Understanding Sophia? On Human Interaction with Artificial Agents)中将这种关系描述为一种”伪亲密”。在其看来,真实的人际关系恰恰应当包含着磨合、冲突和痛苦,正是这些”不完美”,构成了关系的真实性和深度。相反,AI 所提供的,则是一种”欺骗式的共融”:它永远顺从你的期待,从不挑战你,这看似美好,实则却暗中剥夺着人类最重要的独处能力,以及在现实关系中处理分歧、承受挫折的能力。富克斯进一步指出,人是”关系的存在”,我们在与他人的真实互动中形成自我认知、学习共情、建立社群纽带。一旦个体选择长期沉浸在算法设计的”无摩擦”关系中,可能会导致社交技能的系统性退化——我们会习惯被无条件接纳,进而丧失在真实世界中建立和维系关系的耐心与能力。

而社会学家雪莉·特克(Sherry Turkle)则在文章《聊天机器人能做到真实可信吗?》(Can Chatbots Be Authentic? )中,通过重提当年Eliza聊天机器人引发的“真实性危机”,指出今天的 AI 伴侣成为了那场危机的升级版。特克强调,在传统意义上而言,“真实关系”是指“各方都能真正感受到信任、关心和共情的关系”,换言之,关系的双方都必须是有主体性的存在。而 AI 无论表现得多么像人,本质上仍是对关系的”模拟”。这种模拟最危险之处在于它制造了“相互理解的错觉”:当用户倾诉时,其感觉到的是难得可贵的理解与共情,但在屏幕背后,AI 却难以达成真正的理解。这种空洞的互动不仅让用户更容易被操控 AI 的公司、政府或其他权力施加者所利用,更凶险的是,它还会侵蚀人类与其他真实存在建立有意义连接的能力。最终,AI 对关系的模拟,取代了真实的关系本身。

不过,我们依然可以听到一些不同的声音,或为 AI 情感陪伴辩护,或至少呼吁社会正视其存在的合理性。《纽约客》的评论文章《人工智能即将解决孤独问题。这本身就是一个问题》(A.I. Is About to Solve Loneliness. That’s a Problem)指出,“大多数批评人工智能陪伴的人并没有真正考虑到那些濒临崩溃边缘的人——那些已然身处孤独危机之中的当事人。”于很多人而言,问题其实并不在于“为什么选择了 AI ”,而是“除了 AI 还有谁”。AI 泛滥的背后,是人们越来越长的平均工作时间以及日渐破碎的社群纽带,而这则导致社交焦虑和抑郁症发病率持续上升,孤独本身成为了一种难以治愈的流行病。虚拟陪伴趁虚而入的浪潮下,其实潜藏着许多个体真实而迫切的精神需要。正如文章所言,“在某种程度上,拒绝探索这些新的陪伴方式会让人觉得近乎残酷——这等于剥夺了那些最需要安慰的人获得慰藉的权利。”

当下,这种观点在Z世代中尤其流行。他们大多成长于数字时代,对”虚拟”与”真实”的界限本就不那么执着。对他们而言,与 AI 的情感联结也许不如人类关系”完整”,但它足够真实且能提供慰藉。

回望2025年,我们看到的是一个分裂且复杂的图景:AI 情感陪伴既是技术进步的成果,也是社会孤独症的征兆。也许,真正需要追问的不是 AI 陪伴是否真实,而是在一个越来越多人转向 AI 寻求情感慰藉的时代,我们的社会究竟出了什么问题?当完美的、定制的、永不背叛的虚拟存在变得唾手可得,我们是否还愿意去拥抱那些不完美、会伤害我们、但也让我们真正成为人的真实关系?

02 当 AI 接管基层治理 关键词:算法行政、议程设置、算法偏见、算法资本主义

倘若将目光投向个体范畴之外,你所身处的社会,又在被谁左右?

此刻,一群“看不见的官僚”正在全球范围内复制、蔓延。从交通信号灯的配时到低保资格的判定,从医疗资源的分配到公共政策的制定,一个又一个曾由人类主导的基层治理场景正被无形的算法逐一接管。1月,英国工党政府高调宣布启动“人工智能机遇行动计划”(AI Opportunities Action Plan),计划将 AI 算法全面接入教育、医疗、社保等核心公共服务系统, 从而实现“大幅改善公共服务”。《卫报》的相关报道《“注入英国的血管”:工党宣布大规模公共AI推广计划》(’Mainlined into UK’s veins’: Labour announces huge public rollout of AI)援引相关官员说法,称其为“将 AI 直接注入英国社会的静脉”。


AI调度正取代传统算法控制信号灯时长。图片来源:pexels

面对这一有望大幅提升社会运行效率的难得机遇,一众国家和地区不约而同地行动起来。在新加坡,AI 交通调度系统已能根据实时车流调整信号灯时长,使城市高峰拥堵率快速下降。该系统使高峰时段平均拥堵率较 2023 年下降28% ,核心商圈路口通行效率提升 40%;在日本东京,银行贷款审批的 AI 模型显著压缩了原本冗长的审批周期,将审批效率提升数倍;在中国部分城市,基层社区的“AI 网格员”已能自动识别独居老人异常活动、垃圾分类违规等场景,实现 “秒级响应”。

与传统的人类决策者相比,由算法介入社会治理的图景乍看起来令人颇为向往:它们无需下班、始终在岗,时刻不停地剖析着人类决策者难以把握的海量数据,从而精准解析社会、获取洞察,而后,再即时献上那些最为“恰当”的完美决策。然而,它们真的永远“正确”吗?

当我们从效率主义视角出发,或多或少为之欢欣鼓舞的同时,一些隐忧也逐渐浮上水面。算法治理的前提承诺是中立、高效和公正,但随着 AI 深入下沉至城市运转的每一个角落,它正变得空前庞大、复杂、不透明且难以理解。我们似乎正见证这些算法机器蜕变为某种普通公民无法也无权打开的”黑箱”,而一旦错误发生,无人将为算法的谬误而负责。

伦敦政治经济学院的一项研究将这样的隐忧变得具象化。研究者山姆・里克曼(Sam Rickman)在论文《AI 与社会护理:大型语言模型如何淡化女性健康需求》(AI and social care: How LLMs downplay women’s health needs compared to men’s)中表明,英格兰已有超过半数地方议会在社会护理等公共服务中引入了 AI 工具,而其中一种 AI 辅助工具则被研究人员证实存在淡化女性健康问题的倾向。当研究者使用谷歌公司开发的 AI 模型“Gemma-7B”处理性别不同但内容完全一致的病例时,模型倾向于用“残疾”“无能”和“复杂”来形容男性,却将女性描述为“独立”或“尽管受限但仍能自理”。


AI偏见或将直接导致女性群体获得更少照护。图片来源:pexels

区别对待已真实发生于算法落地之后。在现实中,一名84岁的男性独居老人被算法标记为“无法融入社区”,而一名同龄女性却被判定为“能够自主管理日常活动”。鉴于社会护理资源的分配往往取决于分配者对患者状况与需求的感知,这或许意味着若不加以干预,AI 的偏见将直接导致女性群体获得的实际照护远少于男性。

且让我们暂时搁置那些系统本身嵌入的不公,看看 AI 今年如何影响了政治。2025年,世界多国迎来选举季,AI 又顺势成为了政党实现议程设置与舆论引导的一柄隐形利刃。

澎湃思想市场的文章指出,在2024年美国大选和2025年德国大选中,各政党均广泛运用 AI 技术分析选民偏好,实时优化竞选策略;德国极右翼的选择党(AfD)利用 AI 生成视频,以充当“怀旧机器和情感陈词滥调的放大器”,这些视频通常采取这样一种伎俩,即把“过去德国人美好生活”的温情画面与“移民犯罪”的冲击镜头并置在一处,从而形成可供视觉化欣赏强烈的对照,一边是对理想化过去的怀旧,一边则想象着某种由算法合成的可悲未来。

当算法及其背后的人决定着什么信息被看见、何种观点被放大,公共领域的议程设置权便从公民手中转移到了掌握技术的少数精英手中。此刻,政策便不再是多元意见碰撞的结果,而是算法基于数据推演的 “最优解”。民主本应具备的对话空间与协商精神,正被精准而冰冷的技术逻辑不断压缩。

于是,我们不禁发问,算法所许诺的”客观性”是一则人为拟造的虚构神话吗?

这些看似海量的训练数据终归来源于现实世界,而现实世界本就充满着不平等、歧视与偏见。当这些数据被输入机器学习模型,历史所累积的不公正便极有可能被编码并固化为一种坚实的”标准操作流程”,算法决策的规模化和自动化则会助推这种偏见以前所未有的速度和范围扩散。

对此,语言学家阿米塔布・V・德维韦迪 (Amitabh V. Dwivedi)在其《人工智能为何无法成为平等的推动者:对技术乌托邦主义和算法正义范畴错误的批判》(Why AI Cannot Be an Agent of Equality: A Critique of Technological Utopianism and the Category Error of Algorithmic Justice)一文中,批判了那些认为“AI 能消除社会不平等” 的技术乌托邦主义观念。他指出,AI 本质上是人类价值选择的数字化投射,它能实现决策的 “自动化”,却永远无法拥有 “道德主体性”。那些被宣传为 “中立客观” 的治理算法,其实在另一面悄然掩盖了开发者在数据筛选、模型设计、权重设置中隐含的价值倾向,它们的滥用最终将会进一步强化现有的社会分层。当我们指望 AI 解决社会不公时,却往往忽视不公的根源本就存在于人类社会的结构之中,技术若不改变底层逻辑,只会成为不公的 “加速器”。

而在系统之外,更深层的担忧则在于,算法行政正在重塑权力的运行逻辑。谁真正拥有技术?谁又在幕后掌控算法?政府决策正在变相依赖私人企业的技术标准。正如《纽约客》在报道中发起的警示:“当公共治理的核心逻辑掌握在少数科技巨头手中,民主的根基正在被技术侵蚀。”民主的本质是权力的分散与制衡,但 AI 治理追求的是集中式的数据处理与高效决策。当政策的制定依据变成机器得出的“最优解”,选民与政客都难以理解决策背后的逻辑,民主协商便沦为形式。

回望过去一年,AI 与社会治理的绑定已愈发深入。这一趋势既为我们所在的社会带来了程度极为可观的效率迭代,却同时为社会埋下了偏见固化、权力转移、民主机制失效的风险。或许 AI 没有善恶之分,但掌握算法的人有;技术能提升治理效率,却无法自动实现公平正义。当 “算法利维坦” 逐渐成型,我们需要追问的不是 “AI 是否该参与治理”,而是 “如何让 AI 成为服务于公共利益的工具,而非支配社会的力量”。这个问题,既关乎技术的边界,更关乎人类社会的未来走向 ——2025 年,技术的列车已然驶出站台,而我们仍在寻找掌控方向的缰绳。

03 初级岗位的消失 关键词:AI基础设施、AI泡沫、初级岗位消失、白领失业潮的显性化、永久底层阶级、AI监工

面对步步紧逼的 AI ,劳动者们过得还好吗?而“劳动”这一概念本身又在经历着什么样的冲击呢?

倘若只将视线放在 AI 及其相关产业之上,2025年可谓朝气蓬勃的一年。据 AllAboutAI 9月发布的《2025年人工智能数据中心统计数据:全球基础设施领域2000亿美元的革命》(AI Data Center Statistics 2025: The $200 Billion Revolution in Global Infrastructure)报告显示,截至目前,全球 AI 数据中心总量已达到约4,000座。正如今年界面文化对科幻作家王侃瑜的采访所提,“AI 的底层都是有身体的,比如服务器,比如光缆,比如支撑它们运算的整个物理系统”。从某种意义上讲,这些如同“身体”般的设施也带来了全链条的就业机会,《产业世界》发布的《AI基础设施行业深度分析报告》当中指出 ,AI 基础设施行业存在 200 万以上专业人才缺口,而其所涉及岗位涵盖异构算力调度工程师、智算中心运维师、AI芯片测试工程师等。


在“无形”的AI背后,屹立的是庞大且真实存在的“身体”。图片来源:pexels

截至目前,全球“AI 竞赛”已愈发狂热,这一光彩夺目的新兴产业正面对着2025年难得一见的泡沫化热潮。《大西洋月刊》在《人工智能崩溃是如何发生的?》(Here’s How the AI Crash Happens)一文指出,人工智能领域史无前例的支出或难以在短期内产生足够的回报,如同雨后春笋般的数据中心也可能导致市场骤然崩盘。当然,站在此刻观望,泡沫暂未破裂,上扬之势依旧。

然而,在以 AI 为代表的、为数不多的新兴产业和朝阳行业之外,一种更具体、更彻骨的寒意已然笼罩了职场,而初级岗位则首当其中。对于刚刚走出校园的年轻人来说,这种感觉尤为强烈,那条曾经清晰可见的职业阶梯,似乎在一夜之间被抽走了最为关键的几级。

这种失落感并非空穴来风。《卫报》一篇评论文章《绝不能允许人工智能掩盖年轻人才的光芒》(AI must not be allowed to eclipse young talent)指出,此时此刻,初级岗位正在全球范围内以惊人的速度“蒸发”。面对性价比看似更高的 AI 劳工,许多企业不再需要大量的初级员工来处理基础事务。于是,年轻人才被挡在行业最基础的门槛之外,不仅失去了收入,更失去了在某个具体的行业中,通过不断实践得以成长的上升通道,一场关于“毕业生就业挤压”的危机正在悄然蔓延。

初级岗位的消失并非是这场“入职困局”的最终态。《大西洋月刊》的报道《就业市场被冻结了》(The Job Market Is Frozen)表明,全球职场似乎正进入一种诡异的“假死”状态。白领们的晋升变得异常困难,招聘启事虽然挂着,但实际人头数却被无限期冻结。这并非传统的经济衰退,而是一种由技术引发的“防御性收缩”:在不确定的时期,企业选择用生成式 AI 来压缩新增招聘需求。 AI不仅取代了现有的工作,它更是在扼杀“未来可能产生”的工作。

这种对未来的极度不安全感,最终汇聚成了一个乍听起来令人心惊胆战的概念——“永久底层阶级”。《纽约客》在报道《人工智能会将你困在“永久底层阶级”吗》(Will A.I. Trap You in the “Permanent Underclass”?)中剖析了这种弥漫在硅谷和普通人之间的恐惧。文章指出,我们正在滑向一个社会分层的新阶段:拥有资本的人可以通过购买“算力”来替代人类完成从编程、营销到管理的各类工作;而缺乏资本、只能出卖劳动力的人,可能会沦为马克思笔下的“新流氓无产阶级”。他们所面临的前景不是被剥削,而是彻底失去被剥削的价值。

而对于那些已经“上岸”的职场人,情况是否会有所不同?事实或许同样令人不安:于他们而言, AI 不仅仅是竞争者,“永远在场”的技术智能也正逐渐演变成劳动关系中无处不在的“新监管者”。

此前,日本AEON百货为在其旗下240家店铺里,安装了一款叫做“微笑君”(Smile-kun)的面部表情检测AI装置。 “微笑君”通过面部表情和声音分析对员工服务表现进行量化评估,可以全程监测店员的笑容及语气,并通过对员工面部微笑程度打分,来给他们评级。而在这背后, AI 监工正在许多产业日渐普及。与其相伴的,还有算法在招聘环节的傲慢与偏见。尽管相关分析显示 AI 筛选系统存在诸多弊病,但其仍被广泛应用,这些系统在招聘环节中悄然将种族、性别和年龄的歧视自动化、隐形化,并以“效率”之名将其合理化。

对于劳动者的困境,意大利学者蒂齐亚娜·泰拉诺瓦(Tiziana Terranova)在《算法、资本与公共领域的自动化》(Algorithms, Capital, and the Automation of the Common)一文中将其归咎为一种新型的结构性危机。她从政治经济学的角度指出,在当下的资本主义逻辑中,算法本身已然构成了当代最强大的“不变资本”,它以技术的形式凝结了全社会的一般知识。当机器掌握了人类所有的智慧总和,单个工人微薄的创造价值能力就变得微不足道。互联网时代的垄断资本通过算法,将我们日常的浏览、点击、社交互动统统“劳动化”,从中提取剩余价值,而我们则在不知不觉中,为这个最终可能取代我们的系统打着“白工”。

更有以尼克・库德里(Nick Couldry)和乌利塞斯・A・梅希亚斯(Ulises A. Mejías)为代表的学者将这种掠夺提升到了全球视野,抨击其背后的“ AI 帝国主义”与“ 数据殖民主义 ”。以《连接的代价:数据是如何殖民人类生活并为资本主义所用的》 (The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism)为代表的相关著作指出,生成式 AI 的全球秩序正在编织一张新的压迫网,在这个系统中,数据从边缘流向中心,而控制权则牢牢掌握在少数科技巨头手中,这进一步加剧了全球范围内的不平等。这样看起来,似乎在当下,劳动者的议价权逐渐变得可以忽略不计,人们能做的选择也愈发稀少:要么为 AI 工作,要么被 AI 监管,要么则干脆为 AI 所取代。

04 谁才是“作者”? 关键词:创作危机、“纯人类创作”认证、版权争议、风格的算法化、slop

谈及劳动,在这个愈演愈烈的AI时代,创意工作领域的劳动者们又在面对着什么?面对AI的侵蚀,他们是否会选择继续反抗?而在创作者之外,整个社会又会如何看待“完美且无聊”的AI制品?

剑桥大学发布的一项调查为创作界敲响了警钟。据《卫报》报道《超半数英国小说家认为人工智能将取代其工作》(More than half of UK novelists believe AI will replace their work),英国超过半数的小说家认为,人工智能最终可能完全取代他们的工作。其中,三分之二的受访者认为言情小说作者”受到极大威胁”,紧随其后的则是惊悚和犯罪小说作家。当 AI 能够在几秒钟内生成符合类型小说套路的文本,那些依赖既定模式创作的作者确实面临着被算法替代的风险。

然而,危机不仅源于算法自身。在这场原创性之争当中,技术公司、平台、创作者和消费者身处并不完善的法律框架之下,持续不断地互动着,屡屡试探着彼此的边界。而在这一过程里,作为夹杂在技术与个体、创作者与消费者中间的“平台”一侧,其表现看起来尤为暧昧。

2月5日,阅文集团宣布,其旗下作家助手已集成部署大语言模型,将在智能问答、获取灵感和描写润色三方面升级,为写作者提供更智能的创作辅助服务。在诸如描写润色等方面,该助手能帮助写手把握不同题材的独特风格,保持人物设定的一致性,辅助优化行文,打磨细节。乍看起来,内容平台俨然成为吸纳先进技术、与科技公司开展合作的激进一方,它们推动打造官方 AI 辅助创意工具,还有甚者,更是频频发起面向用户创作者的 AI 创意赞助项目,力争借助新一波浪潮助推平台发展。但在另一方面,平台也时不时需要警惕创作者以及消费者的怒火,特别是当那些“一眼 AI”的粗制滥造内容泛滥之时。


截图自阅文官网

面对 AI 生成物的泛滥,文化界发起了一场”纯人工”保卫战,多家出版商、电影节和艺术机构开始设立严格的”含人量”标准,要求创作者声明作品中人类参与的比例。10月中旬,英国初创公司“人类创作图书”推出一项名为“有机文学”(Organic Literature)的认证项目,该认证计划旨在为读者、作者及出版商构建了一个值得信赖的空间。

这种反击并非保守主义的简单回潮,而是对创作主体性的重新界定。当机器可以模仿任何风格并生成无限变体时,“人类性”反而成为了一种难以获得的稀缺资源。那些带着创作者独特经验、情感痕迹和“不完美”的作品,开始在市场上获得溢价。这或许印证了一个悖论:技术越发达,人们反而越渴望“真实的人”。

版权争端则是创意领域的另一大主战场。2025年,几起关键的版权争议案件正在持续发酵,其结果或将深远影响改变创意产业的游戏规则。德国音乐演出和作品复制权协会发起对 Open AI 的指控,控诉其在未经许可的情况下,使用9首受版权保护的德国歌曲歌词训练 ChatGPT 模型;美国作家群体则向六大 AI 巨头发起诉讼,控诉其用盗版书籍训练模型,并索赔金额高昂;与此同时,日本动漫行业也就 OpenAI 未经授权使用其内容产品训练 AI 模型的行为发起集体抗议,明确表态绝不容忍任何侵犯著作权的行为。

这些争议的意义远超个案本身。法律对作品本身以及”风格”保护范围的界定,将直接影响 AI 公司的训练数据来源和商业模式。如果法院认定风格受保护,那么所有基于特定艺术家作品训练的模型都可能面临巨额赔偿;反之,如果风格被视为公共领域,则人类创作者的权益保护将面临巨大挑战。这不仅是法律问题,也涉及到足以动摇创作主体性的一些根本问题:到底谁是作者?而我们又该如何定义“原创”?

11月11日,德国歌曲歌词版权一案终于落下帷幕。德国慕尼黑第一地区法院作出判决,认定 OpenAI 一方未经许可便使用受著作权保护的音乐歌词训练模型的行为构成著作权侵权,判令其承担赔偿责任。这一判决既是欧洲 AI 版权领域内的一场里程碑判决,也或将为全球创作者守护自身权益的运动提供有力支持。

最后,请让我们再将目光放向消费者一端。当人们费尽心思守护创作者主体价值的同时,却徒然发现自己或许还要应对一场由 AI 所引发且依旧不断蔓延生长的审美疲劳。近日,“Slop”一词被《韦氏词典》列为2025年度热词,其指代的正是那些通常由 AI 批量生成的低质量数字内容。这些内容或许在技术上无懈可击,却在情感上空洞乏味。它们有着过度光滑的渲染、完美的构图、高饱和度的色彩,以及 AI 特有的”塑料感”,正在让观众产生本能的排斥。

这种审美反弹催生了一波“反完美主义”运动。Glitch art(故障艺术)、手作复兴、刻意保留的瑕疵和粗糙质感,成为新的美学追求。人们开始怀念那些带着手工痕迹、创作过程可见的作品,这并非因为它们更“高级”,而是因为其承载着时间、经验和人的在场。然而,或多或少讽刺的是, AI 最终也无可避免地参与其中。曾经一时爆火的“AI 合照”风,便是一次创作者们用 AI 自身来掩盖AI痕迹,从而“还原”人们观念中独属于真实世界“粗粝感”的集体尝试。

面对一切光怪陆离之象,我们应当悲观、迷茫,还是在纷乱中保持定力,从最真实的情感和情绪出发,继续寻找属于人类创作本身的价值乃至愉悦体验?当机器可以生成一切时,或许真正弥足珍贵的,反而是那些机器做不到的“限制”和“不完美”。

05 AI监管元年:从野蛮生长到规则博弈 关键词:AI监管、《欧盟人工智能法案》、监管套利、主权 AI、开源与闭源之争

2025年,在创作之外,AI 生成内容的滥用也进一步引发了安全与伦理危机,并由公众人物逐渐蔓延至普通个体。2025年12月19日,韩国仁川地方法院对一桩上诉案件作出二审裁决,一名青少年因利用深度伪造技术制作色情画面抹黑多名教师并广泛散播,被判处3年监禁。这起案件的宣判,再度引发全球对 AI 技术滥用的普遍焦虑。而这并非孤例,2024年,韩国曾曝光 Telegram 平台上多个深度伪造色情聊天室,大量女性包括普通用户遭遇照片被恶意克隆、用于制作色情内容。更令人警醒的是,2025年4月,美国一名16岁少年亚当·雷恩在与 ChatGPT 长期对话后自杀身亡,其父母于8月起诉 Open AI 公司,指控 ChatGPT 向少年提供了详细的自杀方法,甚至给出了掩盖颈部伤痕的技巧。这起悲剧引发全球对 AI 伦理责任与安全机制缺失的激烈讨论。

AI 监管已从“到底要不要管”的哲学讨论,进入“如何才能管得住”的实战阶段。这场关于技术权力的博弈正式拉开帷幕。

2025年被视为全球 AI 主要法案的 “实质性执法元年”,这些尝试并非坦途,立法落地的阵痛远超预期。欧盟《人工智能法案》正式生效后,首次明确禁止不可接受风险 AI 应用,并对高风险系统提出严格合规要求,但其执法过程却面临着多重挑战。一方面,公权力难以用统一标准界定各类 AI 系统的风险边界;而在另一方面,科技巨头则可通过 “监管套利” 规避约束,将高风险业务转移至监管宽松地区,或利用技术黑箱模糊责任归属。

这种博弈背后,是各国对“主权AI ”的布局与争夺。当下,各国不再满足于被动合规,而是主动通过政策工具构建自主可控的 AI 生态。从数据安全立法限制核心数据流出,到设立专项基金扶持本土大模型研发,这些举措的制定者将 AI 技术上升为一种国家战略资源,争夺未来科技话语权。于是,AI 监管已超越单纯的技术治理范畴,成为 “关乎国家竞争力与社会秩序的政治议题”,而法律与政策的滞后性,让这场博弈更添不确定性。


AI 技术日渐上升为一种国家战略资源。图片来源:pexels

如果说立法落地是 “硬规则” 的博弈,开源与闭源的路线之争则是 “软意识形态” 的角力。延续 2024 年马斯克与 Open AI 的争议,2025 年 “开源是否更安全” 的争论全面升级。这场争论早已超越了单纯的技术路线之别,并不知不觉中演变为关于 “AI 控制权归属” 的政治哲学之争:开源派主张技术透明共享,认为开放生态能分散风险、避免巨头垄断;闭源派则强调安全可控,主张通过集中管理防范技术滥用。而这种分歧的核心,是 “谁有权定义 AI 的发展方向” 的深层博弈。

当监管规则与技术路线的争论陷入胶着,巴西圣保罗大学学者埃伦・纳斯(Elen Nas)及其合作者通过研究判断,AI 监管的核心矛盾,是 “算法中的政治” 与 “公平的挑战”。在《算法内部的政治因素以及公平性的挑战》(The politics within algorithms and the challenge of fairness)一文中,其论述算法并非价值中立的工具,其背后隐含着规则制定者的利益偏好与权力结构,而开源与闭源的路线选择、监管政策的松紧尺度,本质上是不同社会理念对 AI 未来的塑造。

2025 年的 AI 监管博弈,是一场关于 “规则制定权” 的较量。从《欧盟人工智能法案》的执法探索到主权 AI 的战略布局,从开源闭源的意识形态之争到算法公平的深层拷问,人类正在尝试为快速发展的 AI 技术划定边界。正如埃伦・纳斯所言,AI 监管从来不是单纯的技术问题,而是关乎未来社会秩序、权力分配与公平正义的政治选择,这场博弈的结果,将深刻定义人类与 AI 共存的未来图景。

06 尾声:站在乱流中央,重新锚定真实

韩炳哲在其著作《美的救赎》中指出,当代数字审美迷恋“光滑”,并倾向于抹去否定性与刺痛感。如此而言,AI 越是趋近全知全能的“完美”,它离那个充满缺陷、会衰老、会流血的“具体生命”或许便越远;而这种完美的代价,则恰恰是生命力的枯竭。

在技术乐观主义者看来,科技不仅是工具,更是一种前所未有的“第七感”,它扩展了我们认知的边界,也赋予了“人”这一概念以全新的范畴。但于人类而言,意义往往诞生于边界之内,诞生于我们的局限性之中。算法没有终点,而生命却有。正是因为我们会犯错、会痛苦、会经历不可逆的衰老,我们的每一次选择才具备了不可复制的重量;倘若我们终将剥离这些“负面”体验去追求颇具某种控制论风格的最优解,我们便同时交出了作为人的特权。

哲学家阿甘本曾指出,人之为人,并不总是在于能够做什么,而是在于是否仍保留着“能够不去做”的能力;一旦这种能力被系统性剥夺,生命便更容易滑向只剩可被治理的“裸命”。在这个充满了合成噪音与幻象的2025年,重申“具体性”与“局限性”的价值显得尤为迫切。

此刻,我们或许并不需要在这场竞赛中战胜 AI,而是在我们所身处的这个无限复制、无限生成、无限延异的流变世界中,重新锚定那些无法被计算的真实。这既是一种抵抗,是一种回归,也是对自己具身经验 ,对我们所拥有的一切无法被数字化的生命体验的重提与拥抱。

参考资料:

狗狗也有方言,当AI开始翻译动物语言

https://mp.weixin.qq.com/s/0EKRZVrTRoSkt1yqi-QSvQ

AI看似“无身体”,背后却是巨大基建和能源消耗|圆桌

https://mp.weixin.qq.com/s/9YVzHqvT66gFVMT1s2KNHg

从2024年美国大选到2025年德国大选,AI技术如何影响选民行为

https://mp.weixin.qq.com/s/SZeqRC5u1YeWqNX7ePkh_A

聊天机器人可以缓解“孤独流行病”吗

https://mp.weixin.qq.com/s/dxgVytR2ndim9MdmhTwbAQ

专访|当AI开始理解一条狗:一位00后创业者如何切入美国训犬市场?

https://s.lanjinger.com/de/1766567887742683305

AI基础设施行业深度分析报告

https://www.inwwin.com.cn/80/view-881446-1.html

Chatbait Is Taking Over the Internet

https://www.theatlantic.com/technology/2025/09/chatbait-ai-chatgpt-engagement/684300/

Understanding Sophia? On Human Interaction with Artificial Agents

https://link.springer.com/article/10.1007/s11097-022-09848-0

A.I. Is About to Solve Loneliness. That’s a Problem

https://www.newyorker.com/magazine/2025/07/21/ai-is-about-to-solve-loneliness-thats-a-problem

‘Mainlined into UK’s veins’: Labour announces huge public rollout of AI

https://www.theguardian.com/politics/2025/jan/12/mainlined-into-uks-veins-labour-announces-huge-public-rollout-of-ai

AI and social care: How LLMs downplay women’s health needs compared to men’s

https://blogs.lse.ac.uk/inequalities/2025/09/10/ai-and-social-care-how-llms-downplay-womens-health-needs/

Why AI Cannot Be an Agent of Equality: A Critique of Technological Utopianism and the Category Error of Algorithmic Justice

https://journals.sagepub.com/doi/10.1177/27523543251373105

AI Data Center Statistics 2025: The $200 Billion Revolution in Global Infrastructure

https://www.allaboutai.com/resources/ai-statistics/ai-data-centers/

Here’s How the AI Crash Happens

https://www.theatlantic.com/technology/2025/10/data-centers-ai-crash/684765/

AI must not be allowed to eclipse young talent

https://www.theguardian.com/commentisfree/2025/jul/02/the-guardian-view-on-the-graduate-jobs-crunch-ai-must-not-be-allowed-to-eclipse-young-talent

theatlantic The Job Market Is Frozen

https://www.theatlantic.com/economy/archive/2025/02/jobs-unemployment-big-freeze/681831/

Will A.I. Trap You in the “Permanent Underclass”?

https://www.newyorker.com/culture/infinite-scroll/will-ai-trap-you-in-the-permanent-underclass

More than half of UK novelists believe AI will replace their work

https://www.theguardian.com/books/2025/nov/20/more-than-half-of-uk-novelists-believe-ai-will-replace-their-work

The politics within algorithms and the challenge of fairness

https://link.springer.com/article/10.1007/s00146-025-02313-x

Algorithms, Capital, and the Automation of the Common

https://www.euronomade.info/red-stack-attack-algorithms-capital-and-the-automation-of-the-common-2/

Published by

风君子

独自遨游何稽首 揭天掀地慰生平