智能体正式进入监管周期:中国开始为 Agent 时代建立治理底座
2026年5月8日三部委联合印发《智能体规范应用与创新发展实施意见》,监管对象从大模型转向智能体,提出七层安全框架、权限边界、行为围栏、AIP协议与智能互联网等核心议题,标志着 Agent 时代治理底座正式铺底
2026 年 5 月 8 日由国家网信办、国家发改委、工信部联合印发了《智能体规范应用与创新发展实施意见》。

这篇文件可以理解为:国家层面对”智能体 Agent”第一次做系统性产业部署和治理框架铺底。它不是单纯讲”发展 AI 应用”,也不是单纯讲”监管 AI 风险”,而是把智能体作为一种新的 AI 产品形态,纳入技术底座、标准协议、安全治理、应用场景、产业生态、评价监测这一整套体系里。
下面从”政策信号—监管框架—产业机会—安全产品机会”几个层面拆解,重点看它背后的监管逻辑和商业含义。
1. 最核心的信号:监管对象从”大模型”转向”智能体”
过去几年,监管和产业讨论的核心对象主要是”大模型服务”——模型是否备案、生成内容是否合规、是否存在幻觉、是否输出违法不良信息。
但这篇文件把对象换成了”智能体”。文件开头直接定义,智能体是具备”自主感知、记忆、决策、交互与执行能力”的智能系统,是人工智能产品及服务的重要形态。智能体不只是生成文本,而是可以理解任务、调用工具、保留记忆、做出决策、执行操作。
这篇文件背后的监管逻辑是:当 AI 从”说话”走向”做事”,治理对象就必须从内容治理升级为行为治理。
风险不再只发生在输出端,而是发生在感知、记忆、规划、工具调用、权限执行和多智能体协同的整个链路里。

2. 文件的基本框架:发展和治理同时推进
这篇文件的真正主线是三句话:
第一,国家希望智能体尽快形成产业生态;
第二,智能体不能野蛮生长,必须有标准、有身份、有权限、有评测、有追溯;
第三,重点行业和敏感场景会走更强监管,低风险场景则更多依靠自测、平台管理和行业自律。
文件提出的基本原则是”安全可控、规范有序、创新驱动、应用牵引”,其中”安全可控”放在第一位,明确把智能体”安全、可靠、可信”作为发展底线,贯穿研发、部署、推广全过程。

3. 权限边界被正式写进政策框架
文件中”明确决策权限”这一条非常重要。它提出要厘清三类边界:
- 仅限用户本人决策
- 需由用户授权决策
- 智能体自主决策
并且要求用户对智能体自主决策享有知情权和最终决策权,智能体执行操作不得超出用户授权范围。

对智能体产品来说,最重要的设计不再只是 prompt,也不是简单的内容安全过滤,而是权限控制平面。谁授权、授权什么、持续多久、是否可撤销、是否需要二次确认、是否可审计,都会变成核心能力。
4. “行为围栏”是比”内容护栏”更高一层的监管语言
文件提出要发展”规则内嵌、行为围栏”等技术,确保智能体在公共场所、隐私场所、专门场所等行为合法合规,并探索在重要场景建立行为可验证、可追溯机制。
“行为围栏”比过去常说的”内容护栏”范围更大——内容护栏主要管输入输出;行为围栏则要管智能体的中间过程,包括任务规划是否越界、工具调用是否合理、是否访问了不该访问的数据、是否把用户隐私发给第三方、是否在没有授权的情况下执行高风险动作。

5. 智能体安全被拆成三层
文件在”防范安全风险”部分写得非常具体:
第一层:内生安全,包括数据安全、个人信息保护、密码防护、攻击检测、权限管理、行为控制,防范数据投毒、隐私泄露、算法篡改、系统漏洞、运行失控等风险。
第二层:供应链安全,覆盖开发、部署、应用、维护全周期,尤其点名模型接入、API 调用、扩展工具使用等环节。
第三层:应用衍生风险,要防止智能体被用于自动化攻击、隐私侵犯、虚假信息生成传播、网络诈骗等违法犯罪行为。

这对 AI 安全公司很关键,因为它意味着智能体安全产品不能只做一个”文本审核接口”。未来会需要智能体运行时监控、工具调用防火墙、Agent 权限管理、记忆安全检测、供应链风险扫描、插件安全审计、行为日志追踪、自动化红队评测、合规报告生成等一整套能力。
6. 分类分级治理会成为后续落地的主线
文件提出根据应用场景和潜在影响开展智能体分级治理。对敏感领域和重点行业走强监管(备案、检测、召回);对低风险领域通过合规自测、分发平台管理、行业自律等方式治理。
这对企业产品规划有直接影响:越靠近金融、医疗、政务、司法、公共安全、交通、能源等重点领域,越不能只讲模型能力,而必须讲安全架构、合规流程、测试报告、第三方评测和可追溯能力。

7. AIP 和”智能互联网”是基础设施信号
文件提出”布局发展智能互联网”,探索建立智能体注册平台,提供数字身份管理、检索发现、能力声明等服务,并加强智能体互联协议 AIP 等关键标准推广。
这意味着国家并不只是把智能体看成一个个孤立应用,而是在构想一种新的智能体网络生态:每个智能体有身份、有能力声明、有开发者信息、有接口协议、有合规认证信息,并且智能体之间可以互联、协作、支付、冲突解决。
AIP、智能体注册平台、数字身份和能力声明,可能会成为后续智能体生态治理的关键抓手。

8. 19 个典型场景:智能体优先进入高价值高监管行业
文件列出 19 个典型场景,不只是客服、办公、导购这类轻量场景,也包括智能制造、能源资源、交通运输、金融服务、医疗健康、政务服务、司法服务、公共安全、城市治理、招标投标等高价值场景。
这说明国家希望智能体真正进入提升生产效率、治理效率和公共服务效率的行业流程,而这些场景越关键,风险也越高。

9. 对 AI 安全行业的直接机会
这篇文件明确写入了”安全检测、评估、监测、认证、合规服务、行为管控、供应链安全、风险预警”等需求。智能体安全会形成五个产品方向:
- 智能体安全评测:测任务规划、工具调用、权限控制、记忆污染、越权访问、异常行为、供应链风险
- 智能体运行时防护:行为围栏、工具调用拦截、高危操作二次确认、异常链路阻断、风险动作回滚
- 智能体供应链安全:模型接入风险、API 调用风险、MCP/插件/工具风险、组件漏洞风险
- 智能体合规审计:日志留存、行为追踪、责任归因、合规报告、备案材料、第三方检测报告
- 智能体平台治理:分发前检测、上架审核、信用评价、投诉召回、风险预警
对企业来说,这篇文件会让智能体产品从能力竞争进入可信竞争。谁能证明自己的智能体安全、可靠、可信,谁才更容易进入金融、政务、医疗、交通、公共安全等重点场景。

写在最后
这篇文件的深层意义是:智能体正式从技术热点进入政策治理周期。
它释放了三个非常明确的信号:国家认可智能体作为 AI 产品重要形态并推动生态落地;智能体安全的核心从内容安全升级为权限安全、行为安全、供应链安全;智能体产业未来会出现基础设施化趋势,AIP、智能互联网、注册平台、数字身份将构成新的基础设施层。
中国开始为 Agent 时代建立治理底座。
同专题推荐
查看专题从"技术滥用"到"应用乱象":中央网信办2026 AI 专项行动释放了什么新信号
去年打的是 AI 黑灰产,今年管的是 AI 产业链——监管正在从治理"AI 技术被滥用",进入治理"AI 应用全链条"的阶段。
中国大模型输出内容的法律法规体系
从基础法律到生成式AI专项规章,系统梳理中国大模型内容安全的五层法律框架:网络安全法、数据安全法、算法监管规定、生成式AI暂行办法及技术标准,厘清平台主体责任与合规路径。
全球AI治理的政治制度基础、治理逻辑、立法结构和治理工具
梳理全球AI治理的三条主路径,比较不同政治制度下的治理逻辑、立法结构与工具组合,并聚焦生成式AI、深度合成与算法透明度的差异化监管。