人脸、声音等自然人的生物信息具有高度识别性和强关联性,这些信息一旦“丢失”,将可能冲击网络空间的公共秩序,进而影响社会秩序稳定
针对新兴技术的监管要保持战略定力和应有自信,让技术先行,并在审慎包容中不断探明底线,在底线之上给足新技术发展空间
可以“以AI制AI”,将AI技术应用于犯罪识别、预警、对抗中,研发“反换脸”等检测技术,利用人工智能技术提高办案能力
文 |《瞭望》新闻周刊记者 于雪 刘淏煜
眼见未必为实。长相、声音都是熟人,实则却是“AI换脸”诈骗;“偷来的脸”被制成不雅视频贩卖……近期,类似这种使用“AI换脸”技术进行诈骗、诽谤、敲诈勒索等新型违法行为日渐增多,诈骗手段愈发多样。
公安部8月10日发布的数据显示,2020年以来,公安机关依托“净网”专项行动组织专项会战,严打泄露身份证照片等图像信息的犯罪源头,破获“AI换脸”案件79起,抓获犯罪嫌疑人515名,该类犯罪发生势头得到有效遏制。
滥用“AI换脸”技术究竟潜藏哪些风险?特别是在新一轮科技革命如火如荼的当下,如何监管治理并为其划定合理使用的边界?诸多问题考验着治理者的智慧。
立法能打败“魔法”吗
“只要是能看到的脸都能换”“手机可操作”“30秒内出结果”……一段时间以来,能够定制换脸视频的AI软件利用短视频平台、社交账号等相对隐秘的渠道进行资源共享,少则几百元、多则两三千元即可实现单图换脸、实时换脸、全自动换脸等功能。
有闻智库创始人阳淼介绍,所谓“AI换脸”技术,是深度合成技术的一种,在数字营销、在线教育、影视制作、资料修复、智慧医疗等领域具有丰富应用场景。
中国社科院哲学所科技哲学研究室主任、研究员段伟文介绍,“AI换脸”主要应用自动编码解码和生成对抗网络两大技术,可完成重现、替换、编辑、合成等功能。
所谓自动编码,即将一个人的图像特征抓取出来,并用一串数字代表,解码则是将数字还原成图像。
生成对抗网络技术包括生成和辨别两部分,它们是两个互相博弈的神经网络,生成网络更像是“造假者”,尽力让对方相信自己生成的是真样本;辨别网络则更像“检测者”,尽力区分哪个是假样本。
“AI换脸”软件前期通过大量数据训练让自动编码解码和生成对抗网络这两大技术更为精准、成熟、难以辨别,而后期使用者提供的数据越多,效果越接近真实。
“AI换脸”技术的“平民化”,让其潜藏的法律风险更多进入国人视线。多位受访专家表示,即便未构成刑事犯罪,擅自使用他人人脸、声音等敏感生物信息,也已涉嫌侵犯公民的肖像权、隐私权等人格权。
中国政法大学传播法研究中心副主任朱巍表示,换脸视频本身是对公民肖像权的滥用,如果剪辑过程中有丑化或贬损的情形导致被换脸人的社会评价降低,则涉嫌侵犯名誉权。且无论该行为是否被用于营利目的,均构成侵权。
专家分析,就利用“AI换脸”技术实施色情、诈骗等违法犯罪行为而言,当前在法律责任的认定上并不困难,难点主要在于追责。
浙江省公共政策研究院研究员高艳东介绍,利用“AI换脸”技术进行的违法犯罪行为,侵权主体往往难以直接锁定、侵权行为复杂多样、侵权后果难以量化,既需要在司法实践中给出更细化的解释,也需要借助更多典型案例,以不断探索完善相关案件的裁判理念和规则。
中国社会科学院大学互联网法治研究中心执行主任刘晓春表示,随着“AI换脸”技术快速迭代,侵权易、维权难的矛盾将更为突出。比如如何证明侵权事实的存在,可能需要对处理方式、信息获取、信息处理加工等情况进行举证,仅凭公民自身力量有限,即便是司法机关取证,也会耗费大量时间精力。“对被侵权人来说,维权成本高、专业性强、举证困难的情况将非常棘手。”
“装好刹车再上路”
在立法和“AI换脸”“魔法”的对决中,AI技术治理成为一道必答题。
今年8月施行的《生成式人工智能服务管理暂行办法》明确提出,国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
段伟文表示,当前AI技术的发展临近第一个“黄金交叉点”,即利用AI技术生成的内容已极大限度趋近真实,仅靠人类的经验判断和五感很难分辨真伪,而未来借助技术生成的内容在精准度、逻辑性等方面甚至能够超越人类创造的内容,其数量也将指数级增长,随之将会迎来第二个“黄金交叉点”。“也就是说,真内容将会被假内容淹没,给人类的创造性和判断力带来巨大挑战。”段伟文说。
在段伟文看来,技术爆炸式的发展将冲击人们的既有共识,并将在纠结矛盾中不断形成新共识。一方面,人们担心技术终将失控;另一方面,每个人也不得不使用新技术,享受其带来的便利。因此,如何未雨绸缪,搭建好基础性的制度框架,实时调整治理思路,丰富治理手段格外重要。
在高艳东看来,“一刀切”限制“AI换脸”技术并不可取,而是要规范其使用方式,避免技术被滥用。在他看来,目前人类已进入“弱人工智能时代”,未来人类必将和AI共存共生,如何利用技术更好为人类服务是行业发展的核心目标。“我们需要抛弃零风险的理想主义,务实地在做好底线监管之时,积极拥抱新技术。”
朱巍表示,针对新兴技术的监管要保持战略定力和自信,让技术先行,并在审慎包容中不断探明底线,在底线之上给足新技术发展空间。
中国互联网协会法工委副秘书长胡钢认为,当前“AI换脸”技术处于初生阶段,属于“低阶人工智能”,在现有由网络安全法、数据安全法、个人信息保护法等构成的法律框架内总体可管可控,但需进一步厘清技术服务提供方、平台方、侵权责任人等主体的权责范围和行为边界。
专家提示,今年1月正式施行的《互联网信息服务深度合成管理规定》中最值得注意的,是要求“深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑者,并取得其单独同意。”
同时,针对可能导致公众混淆或者误认的,如合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
胡钢解释说,这主要是强化技术服务提供方“强制标注”的责任,对所有使用“AI换脸”技术的影像、声音强制标注可识别标识,以便发生侵权行为时,可溯源、可问责。
进一步强化网络平台的审核监管责任也是应有之义。比如如何提前预警、及时核查,特别是对拥有超大用户规模、超广业务种类、超高经济体量、超强限制能力的超级平台,推动其通过技术迭代提高对内容产品的监管能力,将智能风险预警和实时动态监管相结合,搭建“穿透式”监管体系,仍需压实完善。
受访专家表示,多部新规的出台,为AI技术的使用划清了“红线”和“底线”,但在明确基本原则和框架的基础上,针对不同行业、不同场景,如何分类分级管理,有待进一步细化。
胡钢建议可采用沙盒监管模式,即先划出特定的时空区域、政策空间,在可控范围内实行容错纠错机制,有控制地发展AI技术。同时强化监管透明度,倒逼企业事先向利益相关者公开技术信息、管理信息和社会责任信息等,以便其作出更加合理的决策。
此外,专家建议“以AI制AI”,即将AI技术应用于犯罪识别、预警、对抗中,研发“反换脸”等检测技术,利用人工智能技术提高办案能力。
胡钢提示,我国在AI技术治理的管理思路、法律体系的建立和完善等方面走在世界前列,有力推动了新型网络空间治理的法治化进程。但技术治理亟需形成全球共识,否则任何一个国家无底线的急功冒进,都可能给全人类带来难以逆转的灾难。
王鹏图/本刊
“人机对齐”能防住技术失控吗
如果拉长历史的视线回顾历次技术革命,其均面对一个共同的诘问:人性的缰绳能否驾驭技术这头猛兽?就“AI换脸”技术而言,讨论厘清其伦理等争议已不容回避。
段伟文认为,当前生成式人工智能技术正在实现从“换脸”到“造脸”的技术飞跃,尽管尚未广泛应用,但也暴露出一些值得警惕的问题:如果训练的AI做的事情与真实目的不符怎么办?眼见未必为实,会否引发潜在的信任危机和伦理问题?
包括段伟文在内的多位受访专家均表示,相比于侵权、诈骗等技术滥用带来的危害,更应重视其对网络社会秩序、现实社会秩序、国家安全乃至社会信任体系、伦理道德规则等带来的危害与冲击。
北京市社会科学院法治研究所副所长、副研究员王洁介绍,人脸、声音等自然人的生物信息具有高度识别性和强关联性,这些信息一旦“丢失”,将可能冲击网络空间的公共秩序,进而影响社会秩序稳定。
清华大学人工智能国际治理研究院副院长梁正表示,深度合成技术正在不断模糊虚实边界,现实世界的一些原有秩序、默认情形和公认原则等,在被平移的同时也可能会被颠覆。
北京执象科技副总经理、资深架构师李新表示,尽管“AI换脸”技术只是人工智能领域一个很小的应用分支,但其可能颠覆人类社会千百年来形成的社会信任体系。
段伟文提醒要特别注意在技术研发过程中的“人机对齐”,也就是让机器生产的内容,不仅能够实现人类设定的目标,而且在价值取向上符合社会规范和公序良俗。
他建议,一方面要对机器采取强化学习的方式,借助人工校正,改进机器生成内容在价值观上的偏差和矛盾;另一方面,人类也要警惕过度借助智能技术带来的智力退化,比如为避免机器轻松通过“图灵测试”,人类需要不断挑战认知极限,在与机器的博弈中不断进步。
美国物理学家迈克斯·泰格马克在其所著的《生命3.0》一书中提出,智能机器是人类后裔,如同我们对孩童的教育一样,必须从小进行价值教育,使其确立正确的价值观,而人工智能技术正处于孩童期,必须尽快抓住价值教育的窗口,协同科技、人文等各领域的力量提早布局。
人类发展的历史就是不断利用新技术解放生产力、提高生产力的历史。技术进步必然带来新的变化,在种种不确定性的背后,有一件事是确定的:技术进步是依靠人类学习的结果,最终也要为人类服务。
从这个意义上,人类应该思考的不是人工智能技术的未来,而是如何为其搭建一个合适的框架,使得人类面对变化,能够不惧、不忧、不怠,拥有更加确定的美好未来。■