deepfake深度换脸真假难辨 荷兰初创公司借AI来检测假视频

  • 时间:
  • 浏览:5
  • 来源:1分快3平台-1分赛车网投平台_3分彩投注平台

前几日,B站UP主“换脸哥”,用AI技术将杨幂的脸“贴”在了朱茵饰演的黄蓉脸上,在网上引发热烈地讨论。相比我国前明星微博 视频你你这个 友好的换脸视频,只为博人及 一笑,而国外的前明星微博 视频玩起换脸技术来则充满“恶趣味”,比如把女明星的脸换到色情视频中,不看标题真假难辨。没有在政治选举时,会不用一帮人故意弄出假视频来搞臭政敌呢?仔细思量,你你这个 AI换脸技术正对社会生活造成重大影响,从目前来看,隐忧不小。

色情视频掀起一场完美风暴机会会对2020年的美国大选造成毁灭打击,其中包括与实际真相毫无关系的破坏性政治丑闻。相反,最初在色情网站上流行的换脸技术 “deepfake”最终会产生令人信服的假视频,展现出政客们说其他或做其他在现实生活中从未做的事情, 机会哪此视频没有及时被标记和揭穿,没有机会会引发广泛的混乱局面。

在网上揭穿虚假图像和视频随后我另另一俩个多吃力不讨好的任务,一般都落在新闻记者、事实检查网站和其他目光敏锐的见义勇为者身上。有日后 ,最近人工智能驱动的deepfake的兴起,机会需要人工智能驱动的检测技术提供额外的事实核查帮助。好莱坞名人和政客在人工智能驱动的deepfake身前就成了数字木偶。Deeptrace是一家总部趋于稳定阿姆斯特丹的创业公司,旨在成为你你这个 deepfake检测技术的首选商店之一。

“人及 把deepfake和例如技术视为新一波网络安全威胁,机会会影响到每个数字视听通信渠道。”荷兰创业公司Deeptrace的首席执行官兼首席科学家Giorgio Patrini表示,“人及 正在构建用于deepfake的防病毒软件。”

在帮助创建Deeptrace随后我,Patrini是阿姆斯特丹大学Max Welling领导的传输速率学习研究小组的成员。他和同事们在Patrini的人及博客上发布了另另一俩个多“简单的实验性假探测器”的结果,从而深入探讨了deepfake。你你这个 最初的尝试引起了更广泛的研究团体的兴趣。

到2018年底,Patrini决定与一位家乡好人及 Francesco Cavalli相互战略合作,创建一家专注于开发deepfake检测软件的初创公司,该软件可不能能 在后台默默地工作,像杀毒软件一样,扫描视听媒体,即人及 浏览社交媒体网络或搜索引擎结果机会遇到的假视频。

“在你你这个 请况下,人及 所捍卫的都不 可不能能 被恶意软件感染和重新利用的软件,随后我人类的意见和行为,受虚假视频操纵、假冒和冗杂的网络所欺骗。”Patrini说。

从假色情视频到假新闻

“deepfake”一词起源于Reddit在线论坛,使用传输速率学习算法将名人的面孔数字地叠加到色情视频中的人脸上。你你这个 传输速率伪造技术基于生成对抗网络(GAN),你你这个 网络被训练来一键复制特定的模式——比如名人的脸——并逐渐增强合成生成的脸的真实性。

当deepfake在2017年12月被主板上的一篇文章首次曝光时,其他换脸色情视频的趋于稳定能助 Reddit关闭了r/deepfakes相关讨论贴。Discord、Gfycat、Pornhub和Twitter等其他在线服务禁止以deepfake关键词搜索。谷歌也更新了它的策略,允许请求屏蔽与“非自愿合成色情图像”相关的搜索引擎结果。

任何技术处理方案都机会涉及有一种 AI军备竞赛。例如,Deeptrace将用于创建deepfake的相同的对抗机器学习作为检测deepfake的主要工具。

有日后 ,其他此类视频的例子仍然冒出在流行的社交媒体服务中,甚至是把deepfake专门用于色情成人网站。 Deeptrace在 2018年发布一份报告,研究发现在各大成人网站上有超过8,000个deepfake色情视频,以及YouTube上的数百个此类视频。随着开发deepfake工具变得更加普遍和易于使用,标记和删除deepfake视频的挑战只会增长。

“与两年前相比,目前deepfake技术的另另一俩个多显著特点是,使用你你这个 技术创造合成媒体所需的机器学习知识含量非常低。” Patrini说。

关于deepfake的其他工作都集中在面部交换和面部表情的改变上。有日后 ,Deeptrace认为deepfake什么的问题是另另一俩个多更广泛的什么的问题,包括人体运动的数字木偶和合成模仿真人声音的假音频。

搞笑的或说明性的deepfake视频有完会 老冒出任总统特朗普和前总统巴拉克·奥巴马等著名人物。有日后 ,deepfake色情视频的传播极大地影响了男人,比如好莱坞女星斯嘉丽·约翰逊(Scarlett Johansson)就深受其害,她的脸被数字技术植入色情视频中,引发数百万次观看。据《华盛顿邮报》报道,即使是都不 公众人物的男人也总是 成为deepfake色情视频的目标,有日后 帕累托图视频的制作传输传输速率都非常快。

有时,为了人及或政治意味着公开羞辱人及 ,deepfake被视为有一种 “复仇色情”武器。 2018年4月,印度记者Rana Ayyub成为了deepfake色情视频的目标,利用她的照片和虚假账户在社交媒体上冒充她。

当假新闻事件 - 通常采取阴谋论或谣言的形式 - 机会意味着现实世界的暴力威胁甚至是无辜人民的死亡时,deepfake的兴起代表了有一种 一阵一阵令人不安的前景。其他专家甚至担心,真正令人信服的deepfake机会破坏公众信任并使假新闻满天飞,是有一种 威胁民主体制和治理基础的法律法律依据,例如在总统选举期间。

建立防线

哈佛伯克曼-克莱因中心和麻省理工学院媒体实验室人工智能倡议的道德与治理主任Tim Hwang表示,除了哪此关注色情内容的deepfake实例之外,没有开发出deepfake检测技术。他建议专注于针对具体的deepfake什么的问题的处理方案,而都不 针对更具推测性的场景开发通用的传输速率检测器。

“机会你真正担心的是虚假报复色情视频,机会你真正担心的是业余制作的色情视频,那随后我另另一俩个多与试图操纵政治舆论的州议员全版不同的请况。” Hwang说。

任何技术处理方案都机会涉及有一种 AI军备竞赛。例如,Deeptrace将用于创建deepfake的相同的对抗机器学习作为检测deepfake的主要工具。 Patrini说,Deeptrace “用于deepfake的防病毒软件”是广泛的处理方案组合的一帕累托图,包括基于现有deepfake算法的已知和流行攻击的数据库。

为了帮助应对未来的威胁,该公司还专门开发了其他deepfake案例来培训其防御软件。随后我项目涉及建立另另一俩个多基于名人、政治家和其他公众人物的个性化模型的数据库,这可不能能 更好地训练视频分析算法,以检测deepfake。 Deeptrace甚至正在探索将音频和视频通道配对以提高deepfake检测的准确度。

有日后 ,任何机会的检测deepfake的探测器的处理方案要做的不仅仅没有简单。哪此处理方案身前的决策需要透明,易于用户解释,有日后 工程师可不能能 轻松调试。 “打开检测假视频的黑盒子与构建精确的模型一样重要。”Patrini说

Hwang认为最有机会的处理方案是在自动检测工具(可不能能 扫描数百万个视频)和更冗杂的基于人工的审查(可不能能 关注更棘手的案件)之间取得平衡。例如,记者、事实检查员和研究人员可不能能 架构设计 和考虑关于视频所显示的内容的支持证据,以便证实或揭穿视频内容。这在发现有一种 经过一阵一阵打磨的deepfake作品时尤其有用。

Hwang说:“机会一帮人创造了另另一俩个多全版自定义的deepfake视频,有日后 真的试图伪装它,没有机会更难弄清楚它到底是果真假。”

打击未来“假货”

去年,Hwang日后开始在研究人员之间进行一次非正式的赌注,关于否有会在2018年底随后我冒出另另一俩个多美国政客的deepfake视频引发病毒式传播,并获得超过100万次观看。Hwang和其他专家对deepfake技术的看法持怀疑态度。当2018年美国中期选举来临之际,并没有任何deepfake的视频造成重大影响时,人及 赢得了赌注。

但即使是持怀疑态度的人也认为,真正冗杂的可不能能 造成大规模社会混乱的deepfake更有机会在2020年的时间框架内冒出,届时关键的政治运动将全面展开。在你你这个 世界上,人及 总是 成为网上阴谋论和假新闻的牺牲品,即便是不没有冗杂的deepfake也机会造成巨大破坏。

随着技术的发展,潜在的deepfake滥用机会会变得更加严重。 Deeptrace观察到了deepfake的开源开发,哪此开发可不能能 在普通视频会议软件主持的实时活动中进行。 Patrini预计,你你这个 deepfake技术变慢就会通过任何人都可不能能 使用的智能手机线程实现。

鉴于deepfake的潜在影响,人及 对检测工具没有感兴趣。美国国防高级研究计划局(DARPA)为Media Forensics的研究提供资金,其项目专注于自动筛选deepfake视频。 2018年,其他学术机构日后开始发布用于deepfake检测和建立检测法律法律依据的视频培训数据集。

2018年9月,AI基金会筹集了数百万美元用于构建另另一俩个多工具,该工具使用人类主持人和机器学习来识别欺诈性恶意内容,例如deepfake。 12月,赛门铁克公司在伦敦举行的BlackHat Europe 2018活动期间展示了一款deepfake检测器。

流行的社交媒体和视频共享平台机会是此类处理方案的首批客户。在预期中,Deeptrace致力于使其deepfake检测易于与现有平台用户界面和数据管道集成。但这家初创公司也在与预算更有限的监督机构(事实核查机构、人权慈善机构和独立记者)进行谈判,讨论分享其他相同的工具。

毕竟,其他政府和公司拥有资源和专业知识来检测和处理专门针对人及 的deepfake内容。有日后 ,另另一俩个多更隐蔽的威胁机会来自于日益猖獗的deepfake内容,哪此内容损害了公众对真实数字媒体的整体信任,或许到了一定程度,就会有太大的人日后开始认为真正的视频或音频来源是假的。没有对你你这个 机会性的持续警惕,社会纽带机会日后开始瓦解。

“有日后 ,最大的危险都没有于deepfake机会会对政府或冗杂的机构产生哪此影响,随后我deepfake机会会渗透到诸如社交媒体和人及或信任互动例如的领域。” Patrini说。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者人及观点,本站只提供参考暂且构成任何投资及应用建议。(若趋于稳定内容、版权或其它什么的问题,请联系:service@qianzhan.com) 品牌相互战略合作与广告投放请联系:0755-310010062 或 hezuo@qianzhan.com