分類
數字趨勢

Deepfake的主要危险以及如何发现它们

在您的在线身份直接链接到您的世界中,完美复制的前​​景令人担忧。但是,这正是Deepfake技术的面世。

随着技术变得更便宜,更易于使用,深造的危险是什么?此外,您如何发现假货与真实交易?

什么是Deepfake?

Deepfake是给媒体的名称,用视频中的人物替换为其他人的头像。该术语是“深度学习”和“伪造”的代名词,它使用机器学习算法和人工智能来创建现实而又合成的媒体。

从最基本的角度来看,您可能会发现一张脸叠加到另一个模型上。在迅速发展的最坏情况下,deepfake技术将毫无戒心的受害者编织成伪造的色情视频,伪造的新闻,恶作剧等。

您可以在我们的Deepfake解释器中阅读有关该技术起源的更多信息。

Deepfake的危害是什么?

伪图像一直存在。弄清楚什么是假的不是什么是生活的普遍部分,尤其是在数字化媒体兴起之后。但是Deepfake技术造成的问题有所不同,为假冒的图像和假冒视频带来了无与伦比的准确性。

最早引起广泛关注的Deepfake视频之一是Jordan Peele在一段讨论眼前问题的视频中冒充了巴拉克·奥巴马(Barack Obama):

视频看起来粗糙,克隆的脸上有奇怪的声音和粗糙的伪像。但是,它说明了Deepfake技术。

或者您是否想过,如果史密斯会在《黑客帝国》中扮演Neo而不是Keanu Reeves(我的意思是,谁没有?!)会是什么样?不再奇怪:

这两个视频不是恶意的,需要花费数百小时的机器学习才能进行编译。但是,只要有足够的时间来学习并且拥有足够的计算能力,任何人都可以使用相同的技术。最初,使用Deepfake技术的障碍很大。但是,随着技术的进步和进入壁垒的大幅下降,人们发现深造产品有负面和有害的用途。

在我们深入探讨伪造品的阴暗面之前,以下是吉姆·凯瑞(Jim Carrey)取代《闪灵》中的杰克·尼科尔森(Jack Nicholson):

1.具有名人的假成人材料

Deepfake技术的主要威胁之一是成人合成材料或众所周知的Deepfake色情。成千上万的假冒成人视频中,有艾玛·沃特森(Emma Watson),娜塔莉·波特曼(Natalie Portman)和泰勒·斯威夫特(Taylor Swift)等知名女星的面孔。

所有人都使用Deepfake机器学习算法将名人脸缝合到女性成年女演员的身体上,并且在众多成人内容网站上都吸引了数千万个视图。

然而,这些网站都没有对名人深造做任何事情。

Deepfake检测和分析公司Sensity的首席执行官兼首席科学家Giorgio Patrini说: “除非有充分的理由让他们尝试将其拆下并进行过滤,否则什么都不会发生。”人们仍然可以自由地上载这种类型的资料,而不会对这些被数亿人浏览的网站造成任何后果。”

正如一些Deepfake创作者所声称的那样,这些视频具有剥削性,并且远离受害者。

2.假冒正常人的成人材料

有没有比以名人为代表的合成色情影片更糟糕的呢?没错:假冒成人材料的女人毫无戒心。 Sensity的一项研究发现了社交消息应用Telegram上的Deepfake僵尸程序,该僵尸程序已经创建了超过100,000个Deepfake裸体图片。许多图像是从社交媒体帐户中窃取的,其中包括朋友,女朋友,妻子,母亲等。

该机器人是Deepfake技术的重大进步,因为图像上传器不需要Deepfake,机器学习或AI的现有知识。这是一个需要单个图像的自动化过程。此外,Telegram机器人似乎只适用于女性图片,而高级订阅(更多图片,去除的水印)价格便宜得可笑。

与名人Deepfake一样,Telegram bot deepfake图像具有剥削性,辱骂性和不道德感。他们可以轻松地找到丈夫,伴侣,家庭成员,同事或老板的邮箱,从而破坏了生活。勒索和其他敲诈勒索可能性非常高,它加剧了复仇色情等现有问题的威胁。

在Telegram上发布Deepfake也会产生另一个问题。 Telegram是一种注重隐私的消息服务,不会过多地干扰用户。它确实有删除色情机器人和其他与成人材料有关的机器人的政策,但在这种情况下没有采取任何措施。

3.恶作剧材料

您已经看到Jordan Peele扮演Obama。在该视频中,他警告过深造的危险。有关Deepfake技术的主要担忧之一是,有人会创建和发布如此逼真的视频,从而引发某种形式的悲剧。

人们认为,最深层次的视频内容可能引发战争。但是,还有其他重大后果。例如,以大型公司或银行首席执行官发表破坏性言论为特色的Deepfake视频可能触发股市崩盘。同样,这是极端的。但是,真实的人可以检查和验证视频,而全球市场会立即对新闻做出反应,并且会发生自动抛售。

要考虑的另一件事是音量。随着Deepfake内容的创建变得越来越便宜,它增加了同一个人的大量Deepfake内容的可能性,重点在于以不同的音调,位置,样式等传递相同的假消息。

4.否认真实材料

作为骗局材料的扩展,您必须考虑到深造将变得难以置信。如此之多,以至于人们开始质疑视频是否真实,而与内容无关。

如果某人犯罪,唯一的证据是视频,那是什么阻止他们说:“这是一次假冒,这是虚假的证据”?相反,如何为用户找到Deepfake视频证据呢?

5.假思想领袖和社会交往

已经有一些涉及将深造内容冒充思想领袖的实例。 LinkedIn和Twitter上的个人资料详细说明了战略组织中的高级角色,但是这些人不存在,很可能是使用Deepfake技术产生的。

也就是说,这不是特定于Deepfake的问题。自从黎明起,政府,间谍网络和公司就开始使用虚假的个人资料和角色来收集信息,推送议程和操纵

6.网络钓鱼诈骗,社会工程骗局和其他诈骗

当涉及到安全性时,社会工程学已经是一个问题。人们想信任别人。这是我们的本性。但是这种信任会导致安全漏洞,数据盗窃等。社会工程学通常需要个人联系,例如通过电话,使用视频通话等。

假设有人可以使用Deepfake技术模仿导演来访问安全代码或其他敏感信息。在这种情况下,可能会导致大量的假冒骗局。

如何发现和检测Deepfake

随着伪造品质量的提高,弄清楚发现伪造品很重要。在早期,有一些简单的道理:模糊的图像,视频损坏和伪影以及其他缺陷。但是,这些讲述问题正在减少,而使用该技术的成本却在迅速下降。

没有完美的方法来检测Deepfake内容,但是这里有四个方便的技巧:

  1. 细节。尽管Deepfake技术日趋完善,但仍有一些困难。尤其是视频中的精细细节,例如头发运动,眼睛运动,脸颊结构和讲话过程中的运动,以及不自然的面部表情。眼动是一个很大的诉求。尽管Deepfake现在可以有效地眨眼了(在早期,这是一个主要的告诉),但是眼球运动仍然是一个问题。
  2. 感动。融入细节就是情感。如果某人发表有力的声明,那么当他们传达细节时,他们的脸就会表现出一系列的情感。深度假货无法像真实的人一样传达出深刻的情感。
  3. 不一致。视频质量空前高。您口袋里的智能手机可以4K录制和传输。如果政治领导人要发表声明,那就是在装满顶级录音设备的房间前面。因此,明显的视觉和听觉记录质量不一致。
  4. 来源。视频是否出现在经过验证的平台上?社交媒体平台使用验证来确保不会模仿全球知名人士。当然,系统存在问题。但是,检查从哪里传输或托管的视频中,哪个特别出色,可以帮助您确定视频是否真实。您也可以尝试执行反向图像搜索,以揭示在互联网上找到图像的其他位置。

发现和防止Deepfake的工具

您并不是唯一一个发现深造假的人。几家大型科技公司正在开发用于检测深度欺诈的工具,而其他平台则正在采取措施永久阻止深度欺诈。

例如,Microsoft的Deepfake检测工具Microsoft Video Authenticator将在几秒钟内进行分析,并告知用户其真实性(请查看下面的GIF作为示例)。同时, Adobe使您可以对内容进行数字签名,以防止内容被篡改。

像Facebook和Twitter这样的平台已经禁止了恶意的Deepfakes(《黑客帝国》中的Will Smith这样的Deepfakes仍然是公平的游戏),而Google正在研究一种文本到语音分析工具,以打击假音频片段。

如果您想掌握假冒媒体检测技术,请查看我们的假冒检测测试列表,以进行发现和学习

Deepfake即将到来-而且它们越来越好

事实的真相是,自从Deepfake在2018年成为主流以来,其主要用途是虐待妇女。无论是使用名人面孔制造假色情影片,还是在社交媒体上从某人身上脱衣服,这一切都集中在剥削,操纵和侮辱全世界的妇女。

毫无疑问,假冒伪劣产品即将浮出水面。此类技术的兴起对公众构成了威胁,但几乎没有办法阻止其前进。