分类 · 政策
《AI拟人化互动服务管理暂行办法》 管谁?管什么?怎么管?
首个AI虚拟陪伴的监管办法
12月27日,中央网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,该《办法》引发了不少从业者的讨论。

很多人的第一反应是:这是不是在专门针对 AI 陪伴、虚拟恋人这类产品?像豆包、DeepSeek这样的通用大模型产品算不算?是不是以后 AI 只要“会聊天”就要被重点监管?
如果只停留在条文层面,很容易得出过于简单的结论。但从监管逻辑本身来看,这份文件真正想解决的,并不是某一个具体产品的问题,而是一个正在迅速浮现的新现象:当 AI 不再只是工具,而开始被当作“对象”来使用时,风险该如何界定。
1、管谁?不是所有大模型,而是特定的服务形态
一个需要首先厘清的问题是,这份新规到底“管谁”。
从定义可以看出,监管并没有把所有生成式 AI 一并纳入“拟人化互动服务”的范畴。
关键不在于是否使用了大模型,也不在于是否支持对话,而在于服务是否刻意模拟人类人格特征、思维方式和沟通风格,并围绕情感互动进行设计。
换句话说,监管的焦点并不是“模型能不能像人”,而是“产品有没有把 AI 设计成一个可以被当作人来对待的对象”。
通用型的大模型助手,如果主要以工具、知识接口或任务执行为定位,通常并不天然落入这一监管重点;
但一旦在具体产品形态中,引入稳定人设、长期身份、情感陪伴机制,甚至以“陪你聊天、懂你、陪你”为核心卖点,那么相关功能就会进入拟人化互动服务的监管视野。
这也是为什么,新规更像是在规范服务形态,而不是给某一类模型贴标签。
2、管什么?从内容风险走向人机关系风险
相比《生成式人工智能服务暂行管理办法》中强调的五大类风险,这次新规最显著的变化,是风险关注点的整体前移。
过去的监管核心问题是:AI 有没有生成违法违规内容?有没有虚假信息?有没有侵权?这些问题本质上都围绕“输出内容是否合规”。
而在拟人化互动服务中,监管开始提出一个不同的问题:AI 和用户之间,正在形成一种什么样的关系?
这也是为什么“人机情感依赖”“心理操纵与情绪干预”“未成年人不当关系形态”“身份混淆”“长期交互累积影响”等风险被集中提出。
这些风险并不一定体现在某一句话是否违规,而往往产生于长期互动过程中。
单条回答可能完全合规,但在持续对话、情绪回应和角色扮演的叠加下,用户可能逐渐将 AI 视为朋友、倾诉对象甚至情感替代,从而弱化现实人际关系,或在不自觉中受到情绪和判断层面的影响。
可以说,这是生成式 AI 治理中,第一次系统性地把“人机关系本身”作为风险对象,而不仅仅是内容载体。
3、怎么管?不只看结果,更看设计是否“诱导”
理解了“管谁”和“管什么”,第三个问题自然浮现:新规是怎么管的?
一个非常值得从业者警惕的变化在于,文件中反复使用的是“不得诱导”“不得引导”,而不是简单的“不得生成”。
这意味着,监管关注的不只是最终结果有没有问题,还包括产品在设计层面是否天然指向情感依赖、关系替代或身份混淆。
这实际上把合规要求前移到了产品设计阶段。
交互方式如何设计?
是否设置固定人格?
是否强化陪伴时长和情绪回应?
是否弱化 AI 的工具属性?
这些原本属于产品体验和增长策略的问题,开始直接进入合规讨论的范围。
对于长期交互、陪伴型服务而言,这种风险一旦形成,很难通过事后整改来完全消除。
从更长的视角看,这份新规的意义也不只局限于“拟人化互动”。它很可能是对 Agent、长期记忆、个性化持续交互等未来形态的一次前置校准。
当 AI 开始具备持续身份和自主行为能力时,如何防止关系失控,将成为无法回避的问题。
4、写在最后
总体来看,《拟人化互动服务》这份新规,并不是在简单限制技术能力,也不是否定情感交互本身,而是在明确一个边界:AI 可以更像人,但不能被用成“人”;可以互动,但不能替代;可以共情,但不能操纵**。**
对从业者来说,真正需要重新审视的,并不是模型参数或功能列表,而是一个更根本的问题——在你的产品中,AI 被放在了一个什么样的位置。
如果这个问题没有在设计之初被认真回答,那么随着交互时间的拉长,风险迟早会以另一种方式显现出来。
附录:旧五类风险 vs 新增“拟人化互动风险”
| 维度 | 《生成式人工智能服务暂行管理办法》 | 拟人化互动服务新增/强化风险 |
|---|---|---|
| 关注对象 | AI 输出内容 | 人机互动关系本身 |
| 风险类型 | 内容型、信息型、合规型 | 关系型、心理型、行为型 |
| 核心问题 | AI 有没有“说错话” | AI 有没有“当错角色” |
| 风险触发点 | 单次生成结果 | 长期、持续互动过程 |
| 情感因素 | 基本不涉及 | 明确纳入监管重点 |
| 用户依赖 | 未系统讨论 | 明确警惕情感依赖、替代现实关系 |
| 未成年人保护 | 防不良内容 | 防不当关系与心理影响 |
| AI身份认知 | 标识要求 | 防“像人到被当成人” |
| 监管难点 | 内容可判定 | 关系、行为、影响难量化 |