随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的 “真假难辨”。与此同时,AI声音滥用现象也时有发生。一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容,不仅严重误导了消费者,也对当事人造成了不良影响。
在AI智能语境下,生成 “以假乱真”的“克隆音”并不是什么难事。依赖于当下的深度学习算法,从采集到的声音样本中精确提取一系列关键特征,包括频率、音色、声调、语速以及情感表达等。随后,这些特征被转化为复杂的数学模型,并通过算法进一步合成,可以轻而易举生成高度逼真的声音。
但随着AI智能技术的普及运用,“克隆声音”门槛迅速降低,一些不法分子趁机将其滥用于诈骗、虚假宣传。社交平台上,利用AI技术模仿并恶搞各领域名人的短视频屡见不鲜。曾有大量短视频通过AI模仿某知名人士的声音,其中部分视频包含不当言论,引发社会热议和追责官司。
“我的声音”突然可以被别人随意“以假乱真”制作使用,有时确实让“我”也目瞪口呆,不仅容易借助“我的声音”去从事非法行为,一些违法违规行为的出现,更可能涉及对声音本人的权益造成危害,甚至成为诈骗等违法之为的道具。
个人声纹信息作为一种生物识别特征,具有高度的可识别性,能够被电子手段精确记录。其独特性、唯一性及稳定性,使其成为将信息与特定自然人相关联的关键要素。根据《中华人民共和国个人信息保护法》,声纹信息被归类为敏感个人信息,受到严格保护。按照法律规定,“我的声音”你可以听,但不可以滥用,尤其不能违法使用或通过AI模仿随意处置侵犯“我”的权益。
“我的声音”你可以听,但不可以滥用,仅靠现行法律的规定和规约是远远不够的,“我的声音”亟需科学保护也是AI语境下迫在眉睫的新课题。
如何保护“我的声音”?首先要强化AI智能领域的监管立法步伐。AI技术普遍应用,给现实法律体系带来了巨大挑战。虽然类似的“声音权”在相关法律法规中有所指涉,但具体到日新月异的AI技术领域,相关法律法规的规约作用发挥还存在滞后的一面,现实法律法规框架对于发展迅速的人工智能而言,还存在管理力量与管理对象地位不匹配的一面。同时,在相关领域法律法规实施中,由于AI技术带来的新形势、新问题、新现象、新矛盾、新冲突,也急需相关法律法规在发挥治理规范作用方面与时俱进。因此,尽快完善AI智能领域立法,是从源头上防止“我的声音”被滥用的基础和前提。
保护好“我的声音”,需要强化声音权益保护宣传教育普及, “AI造声”其实更是一种智能技术的滥用,更是违反法律法规要求的畸形。随着AI智能化应用越来越普遍普及,强化AI智能技术应用伦理和法纪宣传已经成为当务之急。因此,司法、公安、网信、工信、平台等职能部门机构要结合AI技术广泛应用的实际,加强对类似“声音模仿制造”行为的宣传教育,重点针对AI技术研究对象、使用对象、发布平台、交易各方等进行法纪宣传,做到依法规范行为,严防“我的声音”被滥用。同时,也要结合实际案例,针对普通公众,开展好智能领域“我的声音保护”专题宣传,教育引导公众擦亮眼睛、竖起耳朵,不至于被“假的真声音”忽悠蒙骗。
“我的声音”你可以听,但不能滥用,关键还要强化责任意识和执法追责力度。要在强化声音主体自我保护基础上,夯实平台责任、AI技术产品开发责任、智能技术使用责任等,并采用严格执法、强化问责的干预手段,从源头上夯实责任,规范平台发布和智能技术开发、使用、推广者的法律责任,避免出现AI使用越界,给“我的声音”造成危害。(大河网河声评论员 许朝军)