河声丨警惕AI“搭子”变“刺客”

2026年01月08日18:59

来源:大河网

当AI有了“情商”,我们的孤独似乎找到了出口。早晨醒来与AI互道早安,深夜难眠向AI倾诉烦恼,周末无聊让AI推荐电影……如今,AI正化身各类“搭子”,以惊人的速度融入我们的生活。日前,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,再度将人工智能时代的数据安全和伦理问题拉回人们的视野。

小红书上,有人发帖称“DeepSeek成了我的精神依靠”,抖音里,“豆包的共情回复”被大量转发,AI“搭子”的快速崛起,本质上是对现代社会情感缺失的一种技术回应。复旦大学发布的《中国青年网民社会心态调查报告(2024)》显示,在11253名被访者中,有13.5%的年轻人选择向AI虚拟人倾诉自己的心事,这一比例甚至高于父母亲人(10.4%)。这种永远在线、永远耐心、永远体贴的拟人化服务,让许多人将AI视为完美的情感寄托。

然而,这位“完美搭子”,却可能在某个不经意的瞬间,变成侵犯隐私、情感与生命安全的“刺客”。一方面,高度拟真的交互设计,精心优化的情感回应,让AI“搭子”极易营造出“世上唯你最懂我”的认知幻觉,长期沉溺其中,会导致人的现实社交能力退化,陷入“越依赖越孤独”的恶性循环。值得警惕的是,部分服务商为了提升用户黏性,故意利用算法强化这种依赖,将“情感陪伴”异化为“情感绑架”。

另一方面,用户向AI“搭子”倾诉时,往往会透露许多高度敏感的个人信息,这些信息不仅描绘了我们的生活轨迹,更勾勒出我们最深层的心理图谱,一旦遭到泄露或滥用,无疑会对个人隐私安全构成极大威胁。一些服务商把用户隐私当作AI模型训练的“免费素材”,让本该服务于人的技术沦为制造风险的“刺客”。去年,国家网络与信息安全信息通报中心发布通告,指出智谱清言、Kimi等AI大模型存在违法违规收集使用个人信息行为,已为此敲响了警钟。

此外,部分AI大模型缺乏严格的年龄识别和内容过滤机制,可能生成、传播宣扬淫秽、赌博、暴力或者教唆犯罪的内容,甚至鼓励、美化、暗示自杀自残,极易对心智尚未成熟的青少年造成不可逆的身心健康伤害。

此次公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,为AI拟人化服务的发展构建了多层次的规制体系。《办法》禁止服务商将用户交互数据、敏感个人信息用于AI模型训练,要求通过数据加密、安全审计、访问控制等措施保护用户交互数据安全。同时,明确用户可以选择对聊天记录等历史交互数据进行删除,监护人可以要求服务商删除未成年人历史交互数据,赋予用户删除交互数据的权利。

要求服务商显著提示用户正在与AI而非自然人进行交互,当用户连续使用拟人化互动服务超过2小时,以弹窗等方式动态提醒用户暂停使用服务,避免过度依赖、沉迷;禁止服务商将替代社会交往、控制用户心理、诱导沉迷依赖等作为AI设计目标,帮助用户保持认知清醒,维持健康的人机边界。

建立应急响应机制,当发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人,守牢安全底线;建立未成年人模式,要求在向未成年人提供情感陪伴服务时,应取得监护人的明确同意,并提供监护人控制功能,禁止向老年人提供模拟用户亲属、特定关系人等服务,让“一老一小”更好地享受AI带来的便利。

压实平台主体责任,构筑多元共治生态。《办法》不仅约束服务商,也要求应用商店等平台落实上架审核日常管理、应急处置等安全管理责任,这种多方协同的治理思路,有助于形成监管合力,避免“按下葫芦浮起瓢”的困境。

《人工智能拟人化互动服务管理暂行办法(征求意见稿)》的出台,标志着我国AI治理实现从“事后应对”向“事前预防”的重要转变,未来,期待能在技术与安全之间保持动态平衡,让我们真正拥抱一个有温度、有安全感的人机共生未来。(大河网河声评论员 韦俊萱)

责编:孙华峰   编辑:赵地  审核 :王世洋

我来说两句 0条评论 0人参与,