人工智能深度伪造:图文不再可信


AI发展迅猛,需系紧“安全带”(融瞰中国)

——“人工智能与信息保护”系列报道之二

AI“换脸”实施诈骗,AI伪造图片传播谣言,AI“复活”逝者引发争议……随着人工智能技术不断发展,AI深度伪造的案例层出不穷。不少网民惊呼,“有图有真相”的时代已过,图片和视频也不再值得轻信。

AI深度伪造的原理是什么?该如何防范相关风险?用户、平台、监管、司法等社会各界如何合力制定生成式AI信息安全规范?我们对此进行了采访。

“眼见不一定为实”

AI深度伪造引发全球广泛关注。今年1月,一名美国歌手被AI恶意生成虚假照片,在社交媒体迅速传播,给歌手本人带来困扰。2月,香港一家公司遭遇“AI变脸”诈骗,损失高达2亿港元。据悉,该公司一名员工在视频会议中被要求转账,而视频中的“领导”和其他员工都是深度伪造的。诈骗者利用公开资料合成了该公司首席财务官的形象和声音,并制作出多人参与视频会议的虚假场景。

基于深度合成技术引发的侵权案例中,冒充熟人实施电信诈骗是常见手法。不久前,江苏句容的杨女士收到“女儿”要求缴纳报名费的语音后,向骗子账户转账3.5万元。办案民警反复提醒:“遇到转账务必小心谨慎,眼见不一定为实。”

上海人工智能研究院院长宋海涛解释,“深度伪造技术利用AI深度学习功能,篡改、伪造和自动生成图像、声音、视频,产生以假乱真的效果。”他为公众应对深度伪造提供了三条建议:一是掌握甄别AI“换脸”的简单技巧,比如要求对方在视频对话时在脸前挥挥手,观察图像是否有扰动;二是学会使用检测深度伪造的工具和软件;三是保持合理怀疑。“保持谨慎和警惕,是公众应对AI造假的第一道防线。”宋海涛说。

“用技术治理技术”

如何利用生成式AI的强大能力制定信息安全规范,将制约行业发展的“绊脚石”变为“压舱石”?业界一直在探索“用技术治理技术”的方案。

瑞莱智慧是清华大学人工智能研究院孵化的企业,专攻人工智能安全领域。瑞莱智慧总裁田天介绍,该公司研发的生成式人工智能内容检测平台支持检测图片、视频、音频、文本等多种合成类型的真伪,应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等。

相关文章推荐阅读:
  • 马上评|伪造“人民网文章”,饭圈为何如此胆大包天
  • 政府帮助相亲 日本东京推出人工智能相亲系统
  • 人工智能板块9月19日涨幅达2% 持续向好
  • 伪造事故现场谎报事故信息!云南盐津一煤矿事故致1死,总经理等
  • 李彦宏最新发声!最看好的人工智能应用方向是智能体
  • 天津海关智能审图”服务提速增效 通关效率显着提升
    上一篇 2024年06月28日
    德讯收评:大盘觅支撑 做多共鸣或将现
    下一篇 2024年06月28日
    版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 1094474542@qq.com 举报,一经查实,本站将立刻删除。

    相关推荐