据报道,近日,一位北京的国际高中音乐老师小河遭遇了一件离奇事。在AI搜索中,他被“判”了十年有期徒刑,罪名是莫须有的猥亵学生。AI不仅编造了完整的案发时间线,还煞有介事地提到“开除党籍”“一审判决”“送交监狱”等细节。而这一切,仅仅因为某个同事点开了一个“猜你想搜”的链接。
一个清白的人,就这样被算法送进了虚拟的牢房。
然而,这并非孤例。00后画师小兆,在AI搜索结果中被贴上了“跑单骗稿”“需要避雷”的标签,而真相只是AI混淆了她与另一位网友的对话对象。更令人无奈的是,她发布了详细的“防搜声明”,声明“禁止AI处理本人内容”,结果AI只是轻描淡写地加了一句模糊说明,虚假信息依然高悬。
这件事最荒诞的地方在于,AI输出的不是一般性的错误信息,而是具有法律后果的、足以摧毁一个人职业生涯的“判决”。小河是一名教师,他的学生和家长如果看到这条信息,后果不堪设想。AI凭什么拥有给人定罪的能力?它既不是法官,也不是任何有权机关,却可以绕过一切程序,直接宣布一个人“入狱十年”。
或许我们应当警惕,当AI能够伪造一份判决书时,我们所面对的不仅仅是“幻觉”,而是一种正在成型的“算法暴力”。
更令人愤怒的是,受害者并非没有自救。小河曾联系平台客服、发送证明材料、拨打12345热线,前后折腾一年,那条虚假网页链接才终于失效。而小兆想投诉,却发现平台根本没有对应通道,只能点击“没用”——但“没用”的按钮,对AI来说真的有用吗?
其实,这本质上体现了一种制度性的不公,平台用几万字的用户协议绑住了每一个人,却用AI的“一键生成”松开了自己的责任。
而“猜你想搜”这个功能,更是将谣言放大到了极致。它本应是帮助用户获取信息的助手,如今却成了“猜你该背锅”的帮凶。同事的好奇一戳,就让小河的“刑期”传遍网络;画师的客户一搜,就看到“避雷”警告。AI推荐机制不加甄别地抓取、拼接、输出,把谣言包装成“为你回答”的权威结论,谁被推荐,谁就可能在毫不知情中背上黑锅。
从个体维权无门,到防搜贴形同虚设,再到推荐算法助纣为虐,我们看到的是一个系统性的失灵。技术跑得飞快,而制度的缰绳还攥在空气里。我们当然不否定AI的价值,但当它开始伪造判决、毁人清誉,我们就必须追问,谁来为AI的谎言负责?是开发模型的工程师,是提供算力的平台,还是那个在用户协议里埋下免责条款的法务部门?答案或许是:没有人。
法律学者常说,无救济则无权利。当AI的造谣已经真实伤害到具体的人,而受害者连一个投诉按钮都找不到时,我们所谓的“AI治理”就还停留在口号阶段。
因此,监管部门需要尽快明确,AI生成内容的错误,平台应当承担怎样的审核与删除义务?用户被AI造谣后,有没有法定的、便捷的纠正渠道?更重要的是,那些利用AI批量制造虚假信息的源头,能否被追溯到、被惩处到?
技术可以“幻觉”,但制度不能“装睡”。我们每个人都有可能成为下一个“小河”。今天AI造谣了一个教师,明天它就可能造谣你、我。在那一天到来之前,我们需要的不只是一纸“防搜贴”,而是一张真正能兜住底的安全网。否则,算法暴力终将降临在每一个人头上——到那时,谁来写你的“判决书”?(西南科技大学 廖秀珍)
首页