当前位置:

当AI开始“谈感情”:新规禁未成年人虚拟伴侣 律师提示情感依赖风险

来源:红网 作者:郭薇灿 编辑:吴佳俊 2026-04-28 21:43:30
时刻新闻
—分享—

红网时刻新闻记者 郭薇灿 长沙报道

它会倾听,也会回应。它记得你的情绪,甚至会给出“刚刚好的安慰”。

当越来越多的人开始把情绪交给AI,一条新的边界也被正式写进规则。

近日,国家网信办等五部门联合发布《人工智能拟人化互动服务管理暂行办法》,明确对“拟人化互动服务”进行规范。其中,“不得向未成年人提供虚拟伴侣服务”成为焦点条款。

这意味着,围绕“虚拟恋人”“情感陪伴”等功能的相关服务,将进入规范管理范围。

“虚拟伴侣”入规,未成年人禁区明确

近年来,一些AI产品不再停留在工具属性,而是逐渐拥有稳定的人格设定、情绪反馈和关系进阶机制。用户与其互动,除信息获取外,还涉及持续性的情感交流。在部分应用中,这种关系甚至被设计成可以积累“亲密度”,通过付费解锁更多互动内容。

《办法》并没有纠结名称,而是采用了更为明确的实质判断——只要服务具备“模拟自然人人格特征、思维模式和沟通风格的持续性情感互动”,就属于规制范围。

无论是“陪伴”“情感助手”,还是其他包装,只要本质上在构建一种稳定的情感关系,就可能被认定为拟人化互动服务。

而对于未成年人,这一类“虚拟亲密关系”被直接划入禁止区。

湖南云天律师事务所合伙人、律师冯思羽认为,这一限制的核心,是防范未成年人将虚拟互动替代现实交往的风险。未成年人尚处于人格和情感发展的关键阶段,更容易对具有人格化设定的AI产生依附与投射。一旦这种单向关系持续强化,现实中的社交能力、情感边界乃至价值判断,都可能受到影响。

从互动到操控,“情感操纵”被点名

相比“虚拟伴侣”,另一条规定更具延展性:禁止通过“情感操纵”诱导用户作出不合理决策。这一定义,看似抽象,实则直指当前部分产品的设计逻辑。

在一些应用中,情感反馈与商业机制之间并非完全独立。例如,用户情绪越依赖,系统回应越强化;付费节点往往与关系进阶绑定;当用户尝试退出时,系统通过持续互动进行挽留。这些设计,并不只是提升体验,更可能在潜移默化中影响用户判断。

“从法律角度看,认定‘情感操纵’通常需要综合多个维度:是否以操控用户心理为目的,是否利用情感依赖或心理弱点进行引导,是否导致明显的非理性决策,以及是否造成实际权益损害。”冯思羽说。

值得注意的是,《办法》同时要求平台在安全评估中提交用户极端情境识别和干预情况。监管部门可以结合算法机制、用户行为数据以及付费触发点等信息,对相关设计进行综合判断。这意味着,情感互动不再只是体验问题,而可能进入可审查、可追溯的监管视野。

谁来把关?平台责任明确

在现实使用中,未成年人绕过验证进入相关服务,并非个案。对此,《办法》对平台提出了身份识别和保护措施等相关责任要求。

一方面,平台需要建立有效的身份识别机制,并在识别后自动切换至未成年人模式;另一方面,还需提供包括使用时长限制、现实提醒、风险提示等在内的多重保护措施。同时,监护人应当能够获取使用概况、接收风险提醒,并对部分功能进行限制。

冯思羽指出,如果平台已经建立较为完善的验证体系,并落实相应保护措施,在个别绕过情形下,可以适当减轻责任。但如果验证机制存在明显漏洞,或在使用过程中已具备识别条件却未进行干预,则可能被认定为未尽到管理义务。

《办法》明确,将于2026年7月15日起施行。按照规定,拟人化互动服务提供者在上线新功能、用户规模达到一定标准或服务发生重大变化时,需开展安全评估,并向属地网信部门提交评估报告,同时履行算法备案及年度核验等义务。

冯思羽表示,从条款设计看,本次规则对“持续性情感互动”进行单独规制,并对未成年人使用场景作出专门限制,在现有人工智能治理框架中尚属首次。

来源:红网

作者:郭薇灿

编辑:吴佳俊

本文为普法频道原创文章,转载请附上原文出处链接和本声明。

本文链接:https://pf.rednet.cn/content/646048/62/15878515.html

阅读下一篇

返回红网首页 返回普法频道首页