中新网北京3月2日电 (林依)利用深度学习、虚拟现实等生成合成类算法,制作图像、音频、视频、虚拟场景等信息……作为人工智能领域新实践的深度合成技术,得到广泛应用,却也被不法分子恶意使用,造成损失和威胁。
专家学者联合撰写的《深度合成十大趋势报告(2022)》(下称《报告》)于近日发布。其中研判了深度合成技术及应用带来的机遇与挑战,并就其发展与治理给出建议。
深度合成视频发布数量激增
这份报告由清华大学人工智能研究院、北京瑞莱智慧科技有限公司、清华大学智媒研究中心、国家工业信息安全发展研究中心、北京市大数据中心联合发布。
《报告》显示,在国内外主流音视频网站、社交媒体平台上,2021年新发布的深度合成视频的数量较2017年已增长10倍以上。深度合成内容关注度也呈指数级增长。
瑞莱智慧CEO田天解释说,技术不断成熟是深度合成内容迎来爆发式增长的重要原因。研究论文的持续增加、开源技术工具和大量代表性方法的涌现,令深度合成内容的效果更加逼真,制作也更加高效。
清华大学新闻与传播学院常务副院长陈昌凤认为,深度合成将重新定义虚拟数字化空间,从传播社会学意义上看,一个新的人类生存场景将以深度合成技术为基石展开。
如何有效甄别深度合成内容
近期,有不法分子利用深度合成技术伪造音频、视频,实施诬陷、诽谤、诈骗、勒索等违法行为。外界担忧深度合成内容模糊了真实和虚假的边界,特别是随着合成质量的不断提升,传统基于生物特征的鉴别方式越来越难以发挥作用。
浙江大学网络空间安全学院院长任奎提醒,目前对深度合成的检测主要依赖于人工智能模型,依赖于训练数据的完备性,“检测器泛用性相低、公开数据集适用性、数据敏感等,都将带来诸多挑战”。
中国工程院院士邬贺铨认为,治理有两项要点:第一,要持续发展技术,不能“一刀切”地禁止,避免阻碍正向应用与创新;第二,要从源头上解决衍生出的安全问题,利用技术创新、技术对抗等方式,持续提升和迭代检测技术的能力。
田天也有相同看法。他说,反深伪检测技术面临“强对抗性”,需要持续更新迭代。
专家吁构建多维度治理机制
《报告》显示,学术界和产业界均已对反深伪检测投入了大量研究。在国内,清华大学、中国科学技术大学等高校在深度伪造内容检测方面取得显著成果。例如,清华大学孵化团队瑞莱智慧推出的深度伪造内容检测平台DeepReal拥有工业级的检测性能和应对实网环境对抗变化的检测能力。
清华大学人工智能研究院基础理论研究中心主任朱军说,深度合成检测面临持续的攻防和博弈,未来还需融合多模态内容的取证分析、基于数字水印的溯源技术等多方面能力,实现精准识别。
专家同时着眼于构建多维度治理机制。陈昌凤说,可以从技术、伦理与法制等方面努力探索深度合成内容治理路径。还有学者倡导产研发展自律自治。
《报告》也称,各方应与时俱进落实好新的规范要求,并在此前提下不断追求技术突破,不断开拓深度合成技术应用场景,创立示范标杆,形成对人工智能行业整体的带动效应,从而促进新技术的持续健康发展。(完)