AI Agent高权限进驻成手机新卖点 “侵入式AI”却已遭黑灰产利用

财联社12月2日讯(记者 付静)12月1日,豆包手机助手技术首发,引发了市场高度关注。据悉,搭载豆包手机助手技术预览版的中兴通讯(000063.SZ)努比亚M153已开启少量发售,豆包亦在和多家手机厂商推进合作落地计划。

被称为AI Agent落地元年的2025年,华为、荣耀、OPPO、vivo等厂商纷纷在最新旗舰机型里注入AI Agent能力,此次豆包手机助手技术预览版的发布也顺应了这一趋势。不过,财联社记者采访获悉,当前部分AI Agent通过滥用无障碍权限等技术手段跨越应用边界,不乏有大规模数据采集等行为,甚至导致用户隐私“裸奔”。

这一现象因技术属性与传统侵入式软件相似而被专家称作“侵入式AI”。更为值得关注的是,此前已有“黑灰产”利用无障碍权限实现验证码自动采集、抢票购物自动化等操作,引发多方担忧。

无障碍权限已带来风险

“手机系统内嵌AI Agent,拥有比普通App更高的系统权限,能跨应用执行复杂指令,完成复杂任务,相比目前‘智能手机+大模型/AI应用’的体验大幅提升。”就在豆包手机助手技术首发之前,有媒体援引知情人士消息报道称,字节、中兴合作的AI手机核心差异化在于高权限Agent能力。

不过,财联社记者了解到,无障碍权限带来安全风险的现象已较为普遍。

例如,近期多位网友在社交平台称,部分高校要求下载的某款App要求用户开极高的权限。网友“吐槽”称,“每次启动这个App要先把淘宝、京东、拼多多等各种软件全部过一遍;这个软件操纵过我的手机,自己跳转页面开权限。”

北京汉华飞天信安科技有限公司总经理彭根告诉财联社记者,已有“黑灰产”利用无障碍权限实现验证码自动采集、抢票购物自动化等操作,“这类AI操作路径拟人化程度极高,传统反制手段难以识别。”

走出去智库总经理、高级合伙人陆俊秀认为,AI代理并非单一软件工具,是构建了完整的智能化用户行为替代系统,其威胁已经超出了单纯的权限滥用范畴。

那么,前述“高权限Agent能力”是否存在隐私安全风险?

财联社记者查阅《豆包手机助手白皮书》获悉,⾖包⼿机助⼿遵循授权同意、最⼩必要、⽤户可控原则设计,并表示不会使⽤⽤户敏感数据训练模型。

但值得关注的是,根据《白皮书》,⾖包⼿机助⼿在⼿机本地部署了⼀部分AI模型,主要包括OCR模型、⽂本向量化模型、命名实体识别模型、内容识别模型、多模态⼤模型等,以实现数据仅在设备本地处理的⾼敏感隐私数据保护功能。换言之,除了该部分模型在端侧处理,其他操作均在云端进行。是否用户在给出指令后即失去了掌控,或许还需进一步确认。

沙箱”机制遭到突破

陆俊秀告诉财联社记者,超出授权范围、采取非常规手段的AI Agent,实则突破了传统App的“沙箱隔离”机制。

公开信息显示,沙箱(Sandboxing)是一种用于隔离正在运行程序的安全机制,目的是限制不可信进程或不可信代码运行时的访问权限。

基于沙箱机制,操作系统为每个App划分了自己的空间和区域,App之间的数据互相不能读到,但如果无障碍权限开放,这一隔阂就被打乱。

另外,彭根介绍,与传统脚本需要程序员编写代码不同,AI Agent无需代码即可自主规划任务、执行操作,甚至能在夜间自动运行,实现了从“人手操作”到“自动化操作”的本质转变。

据悉,无障碍权限为安卓早期就有的权限,最初旨在为残障人士和老年人提供辅助功能。但随着技术迭代,如今部分手机基于无障碍权限可以自动完成App权限开启、关闭等操作。

AI Agent具体如何利用无障碍权限“侵入”手机?据此前媒体报道,目前行业中有两大主流方案:一是屏幕识别+模拟点击;二是屏幕识别+意图框架执行官方接口(或类API)调用。其中,“屏幕识别 +模拟点击”是更为通用的方案,AI Agent在读取屏幕信息后,将模拟人用手指操作。

彭根提到两点核心风险:一是权限的无边界扩张,无障碍权限属于系统级全局权限,一旦开放便拥有设备的完全操控权;二是行为主体的模糊化,AI成为实际操作主体,用户可能失去对设备的直接控制,且其操作速度远超人类反应,例如短信验证码可在用户未查看前被AI捕获。

AI Agent引发治理难题

财联社记者获悉,“侵入式AI”也引发了法律与治理难题。

浙江理工大学数据法治研究院执行院长郭兵告诉财联社记者,目前业内关于无障碍权限的使用仍然存在争议。他举例称:广东省标准化协会明确禁止智能体利用无障碍权限操作第三方App,而中国软件行业协会最新标准则弱化限制、强调用户可控。

他还表示,由于潜在商业利益冲突,AI Agent运营方与第三方App的不正当竞争案件可能随时发生。

从国外案例看,公开信息显示,亚马逊曾起诉Perplexity AI,指控其AI助手Comet在未披露身份的情况下代表用户在亚马逊平台购物,违反服务条款‌。亚马逊指控Perplexity违反CFAA(《计算机欺诈与滥用法案》)、平台规则并造成商业损失,而Perplexity则主张自己是“用户授权的代理人”。

另外,陆俊秀表示,传统机器人基于固定脚本,而AI Agent的能力持续扩展,其混淆、加密等反追踪技术也增加了监管难度。

“用户授权AI在不同App间迁移数据的行为,可能引发《网安法》下的数据保管责任边界争议,亟需法律层面回应。”彭根表示。

据了解,随着技术演进,“侵入式AI”的风险与治理难题还将持续演变。不过多位受访者表示,权限边界与授权机制将是治理核心,未来需设计动态授权、双重授权等核心保障机制。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平