AI 的负面应用,Deepfake 正在盗用社交网络 “自拍照”生成不雅照 – 作者:idguardoffline

以下文章转自IT之家

导语:技术本无罪,善恶在人心。

还记得 “一键脱衣 AI”DeepNude 吗?

去年 6 月,这款深度造软件发布仅几个小时便因访问请求过大迅速宕机,而其原因是它可以一键脱掉女性衣服,制造大量色情图片。

v2-164933e7b3729c635405e995b7cf7ee1_720w.jpg

近日,据调查发现,这款色情的软件再次出现在了即时消息应用程序——Telegram 中。

截止目前,该软件在 TeleGram 平台已经公开发布了约 104,852 张色情图片,这一数据还不包括私下分享传播的图片。更重要的是,这些图片 70% 全部来自社交网络中的真实女性,甚至包括未成年人。

也就是说,日常在 Facebook、微博等社交媒体中分享的自拍照,很可能会被人用来生成 “果照”。

DeepNude 盯上了 “可能认识的人”

这项调查来自美国阿姆斯特丹的网络安全公司 Sensity,这家公司专注于所谓的 “视觉威胁情报”,尤其是那些深度造假视频的传播。他们调查发现,截至 7 月底,Telegram 平台七个主要频道均在使用 DeepNude 软件。

v2-5a6ef5b2a1c7dd92194ab13c69362a64_720w.jpg

该软件吸引了全球 103585 名用户,其中用户最多的频道有 45,615 人。这些用户大部分聚集在俄罗斯及东欧周边地区。

据了解,这款软件爆火的原因有三点。一是操作非常简单,只需要一张照片,上传至软件后,几秒就可以自动生成裸照,不需要任何技术知识或者专门的硬件支持。

二是所有人免费使用。不过它也有盈利模式,未付费用户获得的裸照后会打上水印标签或者只有局部裸露,用户支付 1.28 美元才可以获得无水印图片,但使用权限仅限七天 100 张。

v2-85b72912b21e68231d52bee8b92f0f6d_720w.jpg

三是可以获得熟悉的人的裸照。Deepfake 伪造色情视频已经屡见不鲜,主要以为名人为目标。但根据一项民意调查显示,大多数用户对 “现实生活中认识的女性”更感兴趣,占比达到了 63%。

v2-2f0b282a1da3e0f6fd2a171d0c50bd04_720w.jpg

而 DeepNude 恰好提供了这样的支持,任何用户使用任何照片都可以生成裸照。

从 TeleGram 平台的公开数据来看,许多照片中的女性都是普通上班族、大学生,而且这些照片都是来自 TikTok、Instagram、Facebook 等平台的自拍照。

需要注意的是,这款深度造假软件只针对女性。如果上传一张男性或者其他任何无生命照片,系统也会自动被替换成女生的身体,并识别成相应的器官。

Sensity 首席科学家乔治 · 帕特里尼(Giorgio Patrini)介绍称,目前已经超过 680,000 名女性在未知情的情况下被伪造成了色情图片,并上传到了公共媒体平台。

目前,Sensity 公司的相关调查数据已经对外披露,相关执法部门也对此展开了调查。而至此,为何允许该色情软件出现在社交平台中,Telegram 一直未给出公开答复。

另外,据 Sensity 调查显示,除了 Telegram 之外,另一家俄罗斯社交媒体平台 VK 也发现了 DeepNude,而且它已经开始公开为软件打广告。

不过,此事件一出后,相关负责人便立刻出面回应否认了这一说法。同时他强调,

VK 不容忍平台上出现此类内容或链接,同时也会阻止分发它们的社区。另外,此类社区或链接并未使用 VK 广告工具进行宣传,我们也进行额外的检查,并阻止不当内容的出现。

创建者:我不是偷窥狂,只是出于猎奇心

然而,就是这样一款色情造假软件,它的创建初心竟然是出于好奇心和对技术的热忱。

2019 年 6 月 27 日,DeepNude 软件首次公开上线,随后不久,系统就因为用户访问量过大而宕机。

v2-718bd4fe944b6ec17636dbe99fa39f55_720w.jpg

但就是这几个小时,这款针对女性的 “一键脱衣 AI”已经在国内外引起轩然大波。

有关 “侵犯隐私、性别歧视”等指责声在 Twitter、Reddit、微博等各大社交媒体平台层出不穷。深度学习先驱吴恩达(Andrew Ng)还发推称,DeepNude 是 “人工智能最令人恶心的应用之一”。

而对于外界的种种指责,它的开发者阿尔贝托(Alberto)却公开回应称:

“这个世界还没为 DeepNude 做好准备!”“我不是偷窥狂。我是技术的爱好者”。

同时他强调,“我不关心裸照之类的。有些人自己不想用,就想着让别人也用不上,这很蠢。对技术知识的封堵和审查,是无法阻止它的扩散和传播。”

据了解,Alberto 的研发灵感是来自某杂志上的一个 X 射线眼镜。他对 AI 技术非常感兴趣,当发现 GAN 网络能够把白天照片编变成黑夜照片后,便意识到同样利用 GAN 也可以将一张穿衣服的照片转换成一张不穿衣服的照片。正是出于这样的好奇,最终研发出了 DeepNude。

具体来说,DeepNud 是基于称为 “ pix2pix ”的开源 “图像到图像翻译”软件构建的,该软件于 2018 年由加州大学伯克利分校的 AI 研究人员首次发现。其核心技术 GAN 能够通过识别真实图像,创造自己的伪造品。比如将白天到夜晚的风景照片或从黑白变为全彩色。

但不管是出于猎奇,还对技术研发的准确,这款软件确实是滥用 AI 技术产生了恶劣的影响。如知名作家尼娜 · 扬科维奇(Nina Jankowicz)表示,DeepNude 对世界各地的女性都有巨大影响,尤其是在俄罗斯等社会较为保守的国家。如果公开发表令人信服但虚假的裸照,受害者可能会失去工作,或者面临伴侣暴力。

Sensity 公司也表示,这些虚假的色情图像或视频很可能被用做勒索、骚扰的手段。

Deepfake 威胁,正在肆虐

不仅是 DeepNude,所有 Deepfake 软件均是如此。

如波士顿大学法学教授 Danielle Citron 所说,“Deepfake 已经成为了攻击女性强有力的武器。”

Deepfake 深度造假软件背后的核心技术都是生成式对抗网络 GAN。GAN 通过生成器与鉴别器之间的相互 Battle 来生成逼真的虚假图像、视频或者语音。

自 2017 年,Deepfake 首次被用于制作色情视频后——神奇女侠下海事件,社交网络便开始大量充斥着此类视频,据统计,在所有 Deepfake 创作的视频中,色情视频占据了 96%。随着技术的不断升级,Deepfake 的逼真程度已经达到了肉眼难以分辨的地步,同时它也开始被应用到政治领域。如 Donald Trump、Barack Hussein Obama, Elon Musk 等名人政客的虚假换脸视频已屡见不鲜。

v2-1eefe76d848f2e4179cf23fa9d489546_b.jpg

据普林斯顿大学教授 Jacob Shapiro 最新研究结果显示,2013 年至 2019 年期间,社交媒体已累计发起 96 次政治运动,而其中,93% 为原创内容,86% 放大了已有内容,74% 歪曲了客观事实。而其目的多为诋毁政客、误导公众、激化矛盾等。

为了应对 Deepfake 软件带来的威胁和挑战,2019 年,Facebook 斥巨资发起 “Deepfake 检测挑战赛”(Deepfake Detection Challenge,DFDC)。今年 Deepfake 检测的识别准确率已经达到了 82.56%。

除此之外,学术界以及其他企业团队也在研发 Deepfake 的检测方式。但尽管检测方式越来越多,准确度越来越高,制造虚假视频的趋势依然没有得到很好的抑制。

究其原因,其一可能是 AI 生成虚假内容越来越方便,如 DeepNude,只需要一张照片,人人都可以上手。而其二,如 Sensity 公司负责人所说,DeepNude 目前还处于法律的灰色地带。

因此,要想关上 Deepfake 潘多拉的魔盒,需要制度的约束和人心向善的引导。

引用链接:

https://www.buzzfeednews.com/article/janelytvynenko/telegram-deepfake-nude-women-images-bot

https://www.theverge.com/2020/10/20/21519322/deepfake-fake-nudes-telegram-bot-deepnude-sensity-report?scrolla=5eb6d68b7fedc32c19ef33b4

https://www.vice.com/en/article/kzm

来源:freebuf.com 2021-02-26 17:51:34 by: idguardoffline

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论