交流评论、关注点赞

  • Facebook Icon脸书专页
  • telegram Icon翻墙交流电报群
  • telegram Icon电报频道
  • RSS订阅禁闻RSS/FEED订阅

你的声音也能被伪造 妈妈都听不出差别的那种

2019年09月11日 4:53 PDF版 分享转发

最近有一项新的科技技术,用户只需上传一张正面照,就可以一键操作,把一些影视剧片段中演员的脸换成自己的,甚至还可以通过上传至网络上。

这种“深度伪造”不仅可以换脸,还可伪造声音。而目前一些在面对深度伪造的视频时,也显得力不从心

这不禁让人们担忧,在深受网络社交媒体追捧的“超级”新技术背后,可能有哪些安全隐患

语音合成“术”可以模拟任何人语音

彭博社记者万斯使用电脑合成语音给他母亲打了个电话,看看他母亲能否发现?

彭博社记者万斯:现在为了实验一下,我的电脑合成音,我要给我亲爱的妈妈打个电话,看看她是否能听出来。

万斯(合成音)嗨,妈妈,你们今天什么安排?

万斯的母亲:今天一早家里没电了,我们正在房子里溜达。

Ad:美好不容错过,和家人朋友一起享受愉快时光,现在就订票

万斯(合成音)我刚刚下班,等着接儿子回家。

万斯的母亲:好的。

万斯(合成音):我觉得我可能感染了病毒。

万斯的母亲:那你感觉不舒服,是吗?

万斯:哈哈。我刚才是和你捣乱,你刚才在和电脑说话。

万斯的母亲:我感觉在和你说话真是奇妙。

万斯:你觉得吓人还是觉得不错。

万斯的母亲:如果涉及到非常重要的事情,真的挺吓人的。

合成视频以假乱真

深度伪造,是一种可以实时伪造面部表情,并将其渲染成2D合成视频的人工智能技术。“DeepFake”深度伪造,也逐渐成为这一技术的代称。

李浩是美国南加州大学的助理教授,“针幕动画”公司的联合创始人,这家公司推出的软件可以让用户在玩虚拟现实游戏和购物时,即时定制自己的三维虚拟化身。

“针幕动画”联合创始人李浩:现在我制作了一个你的化身。

美国公共广播公司记者奥一个和蔼整洁的奥布莱恩。

但随着技术的发展,这样的合成图像或视频,真实度越来越强,欺骗性也越来越强。对此,研发者也不无担忧。

2018年1月,一个名为FakeApp的软件上线,宣称可以实现“一键换脸”。

虽然有的社交新闻站点比如Reddit网站,已明令禁止在自己的平台传播换脸视频和图片,但仍有超过9万名用户在Reddit上传播这类视频。

计算机科学专家法里德:我担心这项技术被武器化,还担心它如何影响我们整个社会。

一些科技公司在面对“深度伪造”的视频时,也显得力不从心总裁莫里斯也在接受采访时表示,目前业界还没有大规模的数据或标准对这些假视频进行检测。

Instagram总裁莫斯里:目前,我们还没有应对深度伪造的政策,我们正试着评估,是否愿意这么做。如果要做,又该如何定义深度伪造,我觉得此类事件并不好。

主持人盖尔⋅金:你可以把视频下架。

莫斯里:实际上,我想的不仅是把它撤下来,我认为问题在于,我们如何以有原则的方式,做到这一点。

如今,诸如指纹支付、人脸识别解锁、声音解锁等,这些生物特征识别技术已经渗透到我们日常生活当中。然而,当这些都能被“仿造”时,小到个人财产,大到国家安全,面临的风险和隐患就越来越多。

技术是把双刃剑,用对了地方会造福人类,用错了地方,遗祸无穷。当新技术的能力越来越大的时候,每一项“超级”新技术的推广应用都应当慎之又慎,该有的监管也要跟上。

来源:每经网

喜欢、支持,请转发分享↓Follow Us 责任编辑:赵凌云