(资料图片仅供参考)

眼见耳听也不一定为真!近期,利用人工智能(AI)换脸换声诈骗的典型案例冲上热搜,引发了社会对于AI新型诈骗的关注与警觉。

伴随着AI技术应用的逐步成熟以及应用门槛的降低,通过换脸换声以假乱真实施诈骗成了不法分子作案的新趋势。AI新型诈骗就是乔装后的“狼外婆”,诈骗团伙如同一只只变色龙在人群中悄然潜伏,搜集个人隐私数据和行为习惯。待到作案时机成熟,便采用人工智能技术将自己的形象置换成受害人身边熟人,连声音也模拟得惟妙惟肖。骗子披上数字伪装后,受害者难以辨别对话对象的真伪,被假象蒙蔽,造成个人财产的损失。

AI新型诈骗手段极具迷惑性,对公众的防范意识提出了更高的要求,视频验证的方式已不再万无一失。这提醒我们,个人反诈意识需要与AI技术的发展同步升级。

在日常生活中,除了要注意个人信息保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频外,还要增强网络信息的全渠道核实意识。尤其是涉及财务往来,仅从网络渠道核实容易掉入骗子的圈套,务必要通过电话、见面等多渠道核实确认无误后再进行转账。如不慎被骗或遇可疑情形,请注意保护证据立即报警。

除了公众个人的防范,政府和技术监管部门也应当加强对人工智能技术的监管,提出针对AI新型诈骗的有效应对措施。国家互联网信息办公室近期发布的《生成式人工智能服务管理办法(征求意见稿)》对数据合规性、生成内容合法性提出进一步要求。对于社会中出现的技术滥用问题,需要进一步制定更加严格的法律法规来规范,如明确划定违法行为的责任和惩罚措施,以及提出维护公民隐私和安全的具体措施。

科技企业也理应加强内部监管,技术研发方面需要加强自律和伦理规范。在对外输出AI技术应用时,须遵循道德和法律的底线,确保技术的合法使用。主动配合相关部门,和社会各界加强合作,共同打造一个安全可靠的AI技术生态,加强跨领域的合作与交流,共同研究和应对技术的潜在风险。同时,加强投资和支持安全技术的研发,共同打击AI换脸和换声技术滥用行为,为行业健康有序发展付出努力。

加强公众的防骗意识和教育也是非常重要的一环。公众需要进一步了解AI换脸和换声技术的原理和风险,提高对网络诈骗和个人信息安全的警惕性,培养大众的科技素养,不轻易相信和传播AI生成式等未经证实的信息。(本文来源:经济日报 作者:张 倩)

推荐内容