人类如何与AI智能体共处

我们聚焦AI智能体(AI Agent),不仅仅因为它当下的热度,更因为我们看到了它对未来的影响。我们深度访谈行业顶级专家、资深研究人员、国内外知名企业,尽力描绘当下AI时代的真实图景,展望未来的各种可能性,在不确定性中寻找确定性。

这个领域创新不断,犹如科幻即将照入现实。我们想知道的不只是近在咫尺的明天会怎样,更想知道今天我们做的一切,会对不远的未来产生什么样的影响,诚邀您和我们一起,探索新AI时代。


从“被动助手”到“主动代理”,人类如何与AI智能体共处?


人工智能正从大模型的通用问答阶段,迈向智能体场景落地的全新阶段,深度融入千行百业,持续重塑生产生活方式,却也随之带来权限管控、隐私保护、责任认定等一系列新挑战。人类该如何与AI智能体共处,把握技术发展与安全规范的平衡,让人工智能真正服务于社会发展与美好生活?中国经济时报记者日前独家专访了中国工程院院士邬贺铨,围绕AI智能体的本质特征、潜在风险及治理之道展开深度对话。

从“被动助手”到“主动代理”:AI智能体带来了什么?

中国经济时报:AI智能体的出现让人工智能与人类的关系发生了怎样的本质变化?

邬贺铨:大模型如今已经广泛应用,在信息问答、文档创作等方面展现出强大能力,但其本质还是语言模型,局限性十分明显,主要靠数学计算寻找概率最大的答案,缺乏对物理世界的真实感知和理解,容易产生幻觉,更重要的是,它难以落地到具体的产业场景中完成实际任务。而AI智能体正是为解决大模型的局限性而诞生的,它从大模型演进而来,却不追求通用性,而是聚焦特定任务优化。

AI智能体有两个大模型不具备的关键能力,一是闭环迭代,能通过持续实践形成经验记忆,总结完成任务的可行路径,避免重复犯错;二是工具链集成,可调用外部数据库、其他模型等资源,突破自身能力边界,这让它对单一任务的处理更精准、更可靠,也因为轻量化设计降低了算力需求,能真正走进千行百业。

更重要的是,AI智能体实现了从“被动助手”向“主动代理”的转变。工业生产中,各环节AI智能体能协同优化供应链、生产、销售全流程。这种自主性和协同性,让AI智能体不再是单纯的工具,而是成为了人类的全新协作伙伴。

中国经济时报:AI智能体成为人类协作伙伴的基础是什么?它的落地又让我们看到了哪些新的可能性?

邬贺铨:AI智能体能成为人类协作伙伴,核心基础是它既保留了大模型的智能优势,又补足了落地应用的能力短板,还能与人类形成能力互补——人类擅长高阶决策、情感判断和创新思考,AI智能体则擅长重复性工作、多资源协同和精准执行。而且AI智能体的轻量化特性,让它能下沉到手机、可穿戴设备等各类终端,让AI智能体的协作能力真正贴近人类的生活和工作场景。

它的落地让我们看到了诸多新可能:消费端,旅游规划智能体能自动协调机票、酒店、路线,解放人类的烦琐安排;工业端,智能体协同能大幅提升生产效率,减少人工干预;城市治理端,多智能体联动能让应急处置、公共服务更高效。可以说,AI智能体的出现,让人机协作的场景变得更具体、更广泛。

隐私、安全、责任:AI智能体带来的三大挑战

中国经济时报:您认为AI智能体发展目前面临的核心风险有哪些?

邬贺铨:AI智能体现阶段的发展面临多重挑战,这些挑战既来自技术不成熟,也来自管理和制度的滞后。首先是技术层面的问题,一是自主学习可能产生偏见,智能体缺乏对学习内容的有效甄别能力,容易兼收并蓄不实信息,形成错误的判断逻辑;二是协作稳定性不足,多智能体协同过程中,容易出现决策冲突和资源竞争,甚至产生错误的传导效应,影响任务执行。

其次是权限和责任的问题,智能体的自主性容易带来越权风险,可能超越人类授权范围自作主张;而一旦出现问题,责任认定难度极大,问题溯源可能涉及大模型训练、工具链调用、智能体记忆偏差,甚至人类指令表述不清等多个方面,很难界定具体责任主体。

再者是安全放大效应,智能体作为数字世界的新入口,统一调度后端的App、数据库、工具链等所有资源,这个入口一旦被黑客攻击,会牵连后端所有系统,造成系统性安全风险;同时,智能体深度掌握用户的习惯和隐私信息,若数据管理不当,极易引发隐私泄露问题。

还有生态协调的挑战,智能体屏蔽了传统App的界面,成为用户和App之间的中间层,这就涉及App开发者的利益分配问题:开发者投入大量资源获取用户,智能体的介入让其与用户的直接联系被切断,若没有合理的利益分配机制,会引发生态矛盾。这些风险的根源,本质上是智能体的技术发展速度超过了制度规范、生态协调的速度,也超过了人类对其的管理能力建设速度。

中国经济时报:面对这些风险,人类该如何守住安全底线,应对思路是什么?

邬贺铨:面对AI智能体发展的诸多挑战,我们不能因噎废食,核心思路是在发展中规范,通过制度约束和技术手段,把AI智能体的“权力关进笼子”,同时建立渐进式的信任机制。

第一,明确权限约束,建立智能体权限管理制度,智能体的授权范围必须清晰界定,不同的任务赋予不同的权限,比如简单的信息查询可完全授权,涉及资金、隐私的操作则要设置严格的权限门槛。

第二,完善审计追溯机制,对智能体的决策过程、工具链调用、记忆更新等所有行为进行全程记录,一旦出现问题,能快速溯源,明确责任主体,这是实现有效管理的基础。

第三,推行渐进式授权,人与智能体的协作需要一个磨合过程,就像与人相处一样,先从低风险、简单的任务开始,逐步建立信任,再根据实际情况扩大授权范围,不能一开始就将所有权力交出去。

第四,推进标准建设,制定智能体间的通信协议、接口标准,让多智能体协同有规可循,减少决策冲突;同时规范用户数据调用的权限边界和同意机制,明确原始数据、加工数据的共享范围,保护用户数据隐私。

另外,对于普通用户而言,也可以掌握自主管控的主动权,比如让智能体先提供方案而非直接执行,由人类做最终决策,降低操作风险。归根结底,智能体的可控性,离不开人类的全程参与和有效管理,我们要始终掌握人机协作的主导权。

共处之道:平衡发展与规范,构建多方协同的新生态

中国经济时报:人类与AI智能体和谐共处,需要构建一个怎样的产业生态?

邬贺铨:人类与AI智能体和谐共处,需要构建一个多方协同、利益共享、安全可控的产业生态,核心是平衡智能体开发者、App开发者、用户和监管部门四方的利益,缺一不可。

对于用户,要建立严格的数据保护规范,明确智能体对用户数据的使用范围、加工方式和共享边界,所有数据调用必须以用户授权为前提,保障用户的隐私和数据主权;对于App开发者,要建立合理的利益分配机制,智能体作为中间层,不能无偿占用开发者的资源和用户资源,要通过商业规则、技术接口等方式,让开发者能从智能体的生态中获得相应收益,避免生态矛盾;对于智能体开发者,要强化行业自律,遵守数据规范和安全要求,与上下游产业形成良性互动;对于监管部门,要出台针对性的政策法规,明确各方的权利和义务,同时推进智能体的识别和监管,防止恶意智能体传播,维护生态安全。

中国经济时报:从长远来看,实现人类与AI智能体和谐共生的关键是什么?

邬贺铨:从长远来看,AI智能体会“润物细无声”地融入人类的生活和工作,人机协同会成为未来社会的主流生产和生活方式。而人工智能的终极发展方向,是从语言模型向世界模型演进,让智能体真正具备对物理世界的真实认知,让人机协作更精准、更自然,但这个过程需要长期的技术积累,目前还没有明确的技术路径和时间表。

实现人类与AI智能体和谐共生的关键,始终在于把握“人为主导、技术向善、规范发展”的原则。首先,人类要始终掌握人机协作的主导权,智能体的发展是为了让人类的生活更美好,而非替代人类,所有的技术研发和制度设计,都要围绕这个核心;其次,技术发展要坚守向善的底线,让智能体始终服务于人类的共同利益,避免技术被滥用;最后,要坚持发展与规范并重,在技术研发的同时,同步推进制度建设、生态协调和能力培养,让智能体的发展速度与社会的适应能力相匹配。


从“动口”到“动手”:如何为AI智能体划好安全红线?


岁末年初,国内外多款AI智能体(AI Agent)产品纷纷亮相。从主打内容生成的大语言模型,到具备自主决策与执行能力的智能体系统,人工智能正加速从虚拟世界走向现实场景,安全发展的需求随之迫切。围绕技术发展、风险结构和治理路径,中国经济时报记者日前专访了清华大学文科资深教授、苏世民书院院长薛澜。

从“动口”到“动手”:AI智能体加速融入现实场景

中国经济时报:近期,国内外涌现出很多AI智能体产品,例如OpenClaw,并且迅速爆火,还出现了所谓的“人工智能社区”。您如何看待这一现象?

薛澜:过去我们常说,人工智能赋能千行百业,但真正的“赋能”,必须嵌入现实运行系统。自ChatGPT问世以来,大语言模型的核心能力主要停留在文本与图像生成,本质上仍是对“下一个词”的概率预测。但近期兴起的AI智能体则明显不同,它不仅能够生成内容,还能够围绕目标进行决策和执行。从某种意义上说,AI智能体正在从“动口”走向“动手”,不光能够理解语言符号,还能理解环境变化,并据此展开行动。

至于爆火的OpenClaw,虽然有人指出这个所谓的“人工智能社区”背后完全是真人在操纵,但从目前人工智能的技术水平和发展规律来看,出现AI智能体之间相互讨论、辩论甚至协作的情况,是完全可以预期的。这恰恰反映出人工智能发展到一定程度后能力的显著提升和自主性的不断增强。而这种自主性,也是我们在设计AI智能体的时候就期望它具备的特征。我认为,这是技术迭代的必然结果,也是一种让人喜忧参半的趋势——我们希望AI智能体“善解人意”,但也害怕AI智能体“自作主张”。

因此,人工智能技术从虚拟空间走向现实场景,从“动口”转向“动手”,就需要我们更加小心,防止产生新的风险。

从认知偏差到物理伤害:AI智能体更需设置安全护栏

中国经济时报:您提到这个阶段需要更加小心,相比于大语言模型,AI智能体在提供方便的同时产生的风险有什么不同?

薛澜:在大语言模型阶段,我们主要需要考虑文本层面的风险,例如算法偏见、AI幻觉等。但是,融入现实场景的AI智能体会造成物理性的伤害,比如医疗机器人可能操作不慎带来医疗事故,家政机器人操作不当引发火灾,等等,这就要求我们在安全机制设计上更加谨慎。

当AI智能体的自主性不断增强时,我们也要考虑未来的某一天它是不是会出现“不听话”的情况,甚至反过来指挥人类?已经有一些研究发现,有的人工智能系统具有“自我保护意识”,当面临被断电、修改数据或替换的时候,会采取策略性回应,甚至以泄露隐私相要挟。虽然这种发现还停留在实验室阶段,但它表明了一种可能性,那就是高度自主的人工智能系统有可能会在与人类目标不一致时选择与人类博弈。

中国经济时报:具体而言,您认为当前我们需要关注哪些风险?

薛澜:目前主要有三类风险需要关注。第一类是技术系统自身的风险,包括系统失控、AI幻觉等问题。例如,在医疗等高风险场景中,对系统稳定性和准确性的要求极高;第二类是技术恶用和滥用风险,必须防范人工智能被用来干坏事,如被用于制造生物威胁、进行网络攻击等;第三类是更为长远的社会系统风险,AI智能体大规模融入现实生活,可能对就业结构、收入分配和社会认知产生深远影响,需要警惕可能引发的社会矛盾。

中国经济时报:面对这些风险,我们该如何应对?

薛澜:任何一项新技术要在社会中广泛应用,就必须有一整套社会技术系统予以保障,包括硬的基础设施和软的制度体系。不妨回顾一下汽车的发展历史。汽车刚被发明时,速度不快,影响范围比较小。随着技术不断改进,汽车的速度提升,对更好的道路产生需求,要求政府投资修建更好的高速公路;行驶距离延长又产生了汽车加油的需求,据此政府和市场合作逐步建立起加油站网络;但如果开车的人都是“马路杀手”,事故频出也是很危险的。于是,交通法规、行车驾照考核等制度体系相继出现。

AI智能体在社会广泛推广应用也是如此,我们既要关注像道路、加油站网络这样“硬设施”的建设,也要关注技术标准、管理机制这样“软设施”的推进,只有当这些配套体系逐步成熟,技术才能走上安全的发展道路。

划好安全红线:在“共同无知”中推进敏捷治理

中国经济时报:您一直倡导“敏捷治理”,这一理念对于当前的AI智能体是否具有现实意义?

薛澜:人工智能技术发展具有高度非线性特征,很难通过线性思维推测其未来形态。我们在企业调研时发现,对于人工智能未来是什么形态、会出现哪些风险,企业本身不是很清楚,政府同样也不清楚。我把这种状态称作“共同无知”。

过去我们谈监管,常将政府比作猫,违反监管的企业比作老鼠,猫的任务是找老鼠、抓老鼠,而老鼠总想着钻空子。大家互相防范,产生高度的信息不对称,很容易陷入更大的风险。而且,虽然我们的治理体系会尽可能在事前有所预判,但预先把技术应用的所有潜在风险都考虑周全,是非常困难的。

在这种情况下,政府与企业之间的关系可能需要发生变化。这就需要政府和企业更有效地合作,使我们的治理机制具备一定的动态适应能力:在技术应用中发现问题,在问题出现后迅速响应,通过规则修订、标准完善和技术优化加以解决。这种在发展中不断优化、不断治理的过程就是“敏捷治理”。

中国经济时报:AI智能体的发展日新月异,对“敏捷治理”有没有更高要求?

薛澜:从宏观层面看,AI智能体的治理逻辑与大语言模型没有本质差异。但不同之处在于,AI智能体进入现实场景,风险类型更加多元,也对制度配套提出更高要求。好的一点是,我们并不是从零开始,很多领域已经逐步建立起完善的法律法规体系。现在要解决的问题是,原来的规制有哪些是合理的可以照用,有哪些不合理的需要调整。这就要求我们的监管部门提前开展研判评估,对现行法律法规进行系统梳理和动态调整。

中国经济时报:对AI智能体,我们是否仍然要坚持“边发展边治理”的思路?

薛澜:我认为,在现实条件下,这是比较可行的路径。首先必须划好不可逾越的红线——凡是涉及国家安全、生命安全和重大公共利益的领域,监管的底线必须清晰。但在基本的红线确定后,还是要给予技术充分的探索空间。因为人工智能技术始终处于不断发展、不断变化的过程中,我们只能是在发展的过程中,不断捕捉新问题、解决新问题。“敏捷治理”也是希望尽可能缩短从出现问题到治理响应的时间差。因为技术发展的速度一定是比制度变革的速度要快的,在人工智能领域更是这样。


分享