在世界上最受欢迎的社交媒体平台之一TikTok上,源源不断的DeepFAke视频正在冒出来。这些视频对拍摄对象的面部或身体进行了数字化改造,让用户完全变成了另一个人。当然啦,大家一般都是换名人的脸。就比如,TikTok上的这位@deeptoMcRiuse,已经发布了数十个假冒汤姆&Middot;克鲁斯的deepFAke视频,并且有了360万粉丝。
好家伙,这相似度,是汤姆&Middot;克鲁斯本人看了也懵逼的程度。
在另一个DeepFAke视频中,一个FAke的扎克伯格承认了自己对于窃取用户大数据的野心。
「想象一下:当一个人手握数十亿人的数据,他就掌握了他们的生活和未来&hellIP;&hellIP;SpectRe让我知道,谁掌握了数据,谁就掌握了未来。」请记住,以上这些话都不是小扎说的。仔细看原版和翻版的视频,的确真假难辨&hellIP;&hellIP;
在这个恶搞视频中,基努&Middot;里维斯刚刚制止了一场持枪抢劫。
而这位马斯克中国分克甚至骗过了马斯克本尊。
错的不是技术,而是人
虽然在大多时候,DeepFAke被网友们用来搞怪,但令人担忧的是,越来越多人在用这门技术进行虚假宣传、欺诈、抹黑公众人物。DeepFAke很好地融合了文本、图像和镜头处理。与绿屏和计算机生成图像相比,它为视觉插入提供了更便宜、更精致的技术。本来这项技术在诞生的伊始,寄托着创造者的美好愿望,比如帮助人们哀悼和怀念逝去的亲人。
然而罪恶的不是技术,而是人性。很多时候,DeepFAke被用来制作虚假新闻、诋毁名人,甚至伪造色情内容。美国大选期间,AI换脸技术就成了政客之间相互攻击的工具。特朗普就曾在推特上转发过一个伪造的拜登吐舌头的视频,播放量一晚上就超过了1000万。
这么明显的恶搞,一般人都不会信。但如果是那种似是而非的视频呢?
2019年,英国保守党方面疑似在选举中伪造工党国会议员KeiR StaRMeR接受电视采访时口齿不清的视频。
而DeepNude 2.0(现已停用)被用来让穿着衣服的女性在镜头中呈现裸体,经常被用于报复和敲诈。此外,DeepFAke还经常被用于诈骗。当信赖的朋友或亲戚打来视频电话向你借钱,你大概率会中招。一项研究发现,2020 年使用数字技术进行的诈骗使美国金融机构损失了200亿美元。
DeepFAke的创作者强调,如果想让这些换脸视频看起来更加真实,就要花费大量的时间和精力。
然而DeepFAke也确实在变得越来越容易。随着更多DeepFAke应用程序的开发,在未来,哪怕是技术水平不高的人也能越来越容易地制作出看起来很逼真的DeepFAke视频。
只要想想在过去的十年里,ps是怎么蓬勃发展的,就大概能预测到DeepFAke未来的发展了。而立法、监管和检测软件正在努力跟上DeepFAke的蓬勃发展。2019年,FACEbook因未能删除政治家Nancy Pelosi的合成视频而受到批评,因为它不符合其对DeepFAke的定义。2020年,TwITteR和TikTok禁止分享可能会欺骗、迷惑或伤害他人的合成视频(除非标清楚是DeepFAke)。而Youtube则是下架了所有与2020年美国联邦选举有关的DeepFAke视频。
但是,即使这些政策有意引导,平台管理员也很难及时处理每一条上报的视频。在澳大利亚,新南威尔士州的AshuRst公司的律师表示,现有的版权和相关法律可能无法保护澳大利亚人免受DeepFAke的影响。虽然国外已经开始尝试制定法律规整这个领域,但这些法律大多都集中在政治传播方面。例如,加利福尼亚州规定,在选举期间张贴或传播经过数字处理的候选人内容是非法的。但不从政的人并不受这条法律的保护。而最好的补救措施之一,就是让用户尽量掌握辨别的技巧。
通常情况下,能让DeepFAke露馅的第一个迹象是,有些东西看着似乎不对劲。
如果是这样,就要更仔细地观察被拍者的脸,想一想:脸部是否太光滑,或有不寻常的颧骨阴影?
眼睑和嘴巴的动作是否看起来不连贯或不自然?
头发看起来是真的吗?
要知道,目前的深度造假技术很难保持头发(尤其是面部毛发)的原始外观。你可以在网上搜索该视频或视频中人物的关键词,因为许多可疑的DeepFAke视频已经被揭穿了。试着判断一下来源的可靠性&Mdash;&Mdash;它看起来是真的吗?如果视频发布在社交媒体平台上,那么发帖人的账户是否经过了验证?你还可以对播放的视频进行截图,并进行谷歌反向图片搜索,检查视频的原始版本是否存在,将其与可疑的版本进行对比。最后,如果你确实发现了一个DeepFAke的视频,一定要记得点举报。