“你的AI小龙虾还安全吗?” 当国家互联网应急中心发布OpenClaw安全风险提示,当超八成受访青年直言担心 AI 隐私安全,一个更值得追问的问题浮出水面:我们一边在各类 AI 应用弹窗里匆匆点击“同意”,一边又对隐私泄露充满焦虑,可我们真的懂那一个小小的“同意”按钮,到底意味着什么吗?
这个仅需指尖轻触的按钮,早已成为数字时代的“隐私陷阱”。调查显示,76.4%的受访青年关注过AI智能体应用,83.6%担心隐私安全,可几乎所有人在使用AI工具时,都曾不假思索地勾选“我已阅读并同意用户协议和隐私政策”。这些动辄数万字、字体小到难以辨认的条款,本质上是平台将“风险转移”包装成“用户自愿”——当AI智能体从 “对话”升级为“实操”,从读取聊天记录扩展到调用摄像头、访问支付信息,一份被默认勾选的“同意书”,就成了平台采集海量个人信息的“合法外衣”。
青年对AI隐私的焦虑,恰恰暴露了“同意”机制的深层失效。54.5%的受访青年认为应禁止采集身份证信息,53.3%反对采集金融账户信息,可现实是,用户要么“全盘同意”,要么“无法使用”,几乎没有中间选项。AI面试官要求授权读取社交账号,智能助手默认开启语音监听,AI智能体索要系统最高权限…… 这种“以服务换隐私”的单向选择,让“同意”彻底偏离了“自愿”的本意。更值得警惕的是,多数青年甚至不清楚自己“同意”了什么:他们不知道AI会将采集的信息用于算法训练,不知道数据会被第三方共享,更不知道一旦泄露,维权的成本有多高。
当“同意”沦为形式,我们需要重新定义AI时代的隐私边界。中国政法大学学者提出的“告知义务”,不应只是平台把冗长条款丢给用户,而应是“精准告知”—— 哪些信息会被采集、用于什么用途、存储多久、如何保障安全,都要用普通人能看懂的语言清晰呈现。更重要的是,要赋予用户“有限同意”的权利:允许用户选择“仅在使用时授权摄像头”“拒绝分享金融信息”,而非被迫接受一揽子授权。这不仅是对用户知情权的尊重,更是给狂奔的AI技术套上缰绳。
超八成青年支持加快AI立法,本质上是渴望一份看得见的安全感。未来的人工智能立法,不能只停留在“禁止违规采集”的原则性规定,更要细化“同意”的标准:哪些信息绝对不能采集,哪些采集必须经过“明示同意”,哪些授权可以随时撤回,以及平台违反约定该承担怎样的处罚。唯有让“同意”回归本意,让用户真正拥有选择权和知情权,才能消解青年的隐私焦虑——毕竟,我们害怕的从来不是AI本身,而是在技术面前,自己的隐私成了可以被随意处置的 筹码。
数字时代的隐私保护,从来不是点一下“同意”那么简单。当 AI的触角伸向生活的每个角落,我们需要的不仅是更完善的法律,更是让“同意”按钮真正代表用户的意愿。只有当每个点击“同意”的瞬间,用户都清楚自己在做什么、要承担什么、能保护什么,那份对AI的信任,才不会被藏在弹窗里的陷阱 消磨殆尽。(大理大学 王高毅)
首页