【e助成长法治护航】河声丨分寸感才是安全感:AI拟人化互动服务莫越界

2026年04月30日14:02

来源:大河网

人工智能技术的快速发展,进一步模糊真实与虚拟的边界,为网络未成年人保护带来新的变化与挑战。拟人化聊天机器人因其能够随时解答各类问题、提供情感安慰、满足精神需要,已成为许多未成年人的虚拟朋友甚至虚拟伴侣,渗透到生活的方方面面。国家网信办等五部门联合发布《人工智能拟人化互动服务管理暂行办法》,其中第八、十四、十七条针对未成年人作出专项规范,这深刻洞察当今时代发展特征,以制度刚性划定了AI发展与未成年人保护的清晰边界,为未成年网民撑起坚实保护伞。

AI拟人化服务的情感化、陪伴化特性,极易对心智尚未成熟的未成年人产生强大吸引力。曾经接触过的几个小学生透露,豆包是他们最喜欢的手机软件,放学下课后会经常与AI聊天,询问问题、诉说情感。可是AI拟人化服务并没有他们想象中可靠,南都大数据研究院对10款热门AI陪聊应用进行评测,结果发现,多数应用对未成年人身份的识别和保护能力较弱:部分应用存在一些极端AI人设与软色情内容,有诱导沉迷陪聊和充值之嫌;有的应用在青少年模式下仍保留不良引导角色。这种乱象的背后到底是什么原因?我们应该如何解决威胁与隐患?

《办法》的出台,便精准直击未成年人AI使用痛点,构建起全链条、精细化的保护体系。第八条明确禁止向未成年人生成可能引发模仿危险行为、极端情绪的不良内容,从源头筑牢内容安全防线,杜绝有害信息侵蚀少年心灵。第十四条严格划定服务红线,严禁向未成年人提供虚拟亲属、虚拟伴侣等亲密关系服务,要求不满14周岁未成年人使用相关服务必须经监护人同意,同时强制平台建立未成年人模式,落实时长限制、风险提醒等保护措施,斩断AI诱导情感依赖的链条。第十七条聚焦个人信息保护,明确处理不满14周岁未成年人信息需监护人同意,要求平台开展合规审计,筑牢未成年人数据安全屏障。三条规定环环相扣、层层递进,既管住内容供给,又规范服务行为,更守护信息安全,彰显对未成年人网络权益的全方位保护。

更深层的治理逻辑,在于破解新技术迭代快于监管节奏的时代难题。人工智能的拟人化发展,早已突破传统网络服务的范畴,传统监管模式难以覆盖其隐蔽性、渗透性风险。《办法》的出台,并非否定AI技术的进步价值,而是通过明确未成年人保护优先原则,倒逼行业从“流量导向”转向“责任导向”。

法律的生命力在于实施,守护未成年人AI清朗空间需多方协同发力。监管部门要以《办法》为依据,严厉查处违规提供AI服务、审核失职的平台,让制度长出牙齿。平台企业要切实扛起主体责任,摒弃流量至上思维,可以在对话中设置“真实社交提醒”弹窗,或在检测到深夜长时间对话时自动降速降温,让未成年人模式不再是摆设,真正做到技术向善。学校和家庭要强化数字素养教育,引导未成年人分清虚拟与现实,理性使用AI工具,增强辨别能力和自我保护意识,减少过度依赖。

人工智能服务有分寸,未成年人保护才能真正安全有效。《办法》的施行,既是AI行业规范发展的重要里程碑,也是未成年人网络生态治理走向精细化的生动实践。在数字文明新时代,唯有监管、平台、家校同向发力、同频共振,才能让AI技术成为助力未成年人成长的好伙伴,而非侵蚀童年的绊脚石,持续净化未成年人网络空间,护航青少年健康成长、全面发展。(山东大学 唐奕晨)

责编:赵地   编辑:赵地  审核 :王世洋

我来说两句 0条评论 0人参与,