再次被某些韩男的骚操作震惊!
8月底,闹得沸沸扬扬的韩国N号房丑闻事件羊已经骂过了。
这次又出现同样恶劣的性犯罪事件:
一些韩男利用AI把女生脸部抠图,制造色情内容上传到网站提供浏览疯狂捞钱,堪比N号房事件2.0。
这个色情网站的覆盖率有多吓人?
据爆料者统计,5000w人口的韩国,就有40w人注册会员,其中有70%的浏览用户还是青少年,这次的调查更是涉及到500多所学校。
细思极恐…
图源:关于这件事的新闻报道r
换句话说,这么高的用户覆盖率说明这些不法分子的恶行已经侵入到这些女性受害者的熟人社交圈层。
而周围熟人作案,又进一步催熟了这种情色网站的扩张。
韩国甚至有个专门词汇叫做「지인능욕」(熟人羞辱)——在聊天群分享女性熟人照片,号召其他男性对她进行性羞辱。
更令人愤恨的是,一些儿童也经AI换脸后成为情色受害者群体。
在这些大量的女性受害者中,有女生受害者表示自己不仅被曝光隐私,还收到了敲诈勒索。
热搜直接显示:韩国女孩被逼到全世界求助。
这些不法行为的始作俑者身份的多元化同样令人震惊,除了一些隔着网线的阴沟里的蛆虫外,甚至包括某些男明星。
新闻报道中JYP、YG、CUBE等韩国几大娱乐巨头的艺人都有沾边。
他们的不法行为曝光后有的艺人退团,经纪公司也不得不出来发布声明,看起来也是实锤得不能再实了。
作恶到如此地步,不仅是身在韩国的女性,整个世界的女孩都在担忧这件事:
科技在发展,AI在进步,本来都是好事,怎么到了某些人这里,就成了专门针对女性作恶的工具了?
今天羊就来具体科普下这次的作案工具Deepfake到底是咋回事,以及在高科技行业工作的女性提供的正确防范方式。
Deepfake被滥用
是悬挂在女性头上的一把刀
先说说这次令人感到不安的高科技Deepfake到底是个啥?
Deepfake这个词在学科内指的一般是使用AI技术进行「面部操作」,生产假视频,制造假新闻。
这次被爆出的色情网站telegram上就有两种此类AI作案工具。
一种工具叫做bot,可以利用AI直接自动将女性受害者照片合成色情图片视频。
除了bot之外,还有另一种是凌辱房(聊天群,以大学和地区为单位), 和之前被爆出来的N号房类似,顾名思义的烂透了。
甚至有些照片是在给女性亲属下药后拍摄的,恶心到想吐又实在是毛骨悚然。
凌辱房群内的男性会故意接近受害者女性,告诉她,她被deepfake并分享了,记录下她的反应,再向群内传播,主打一个沉浸式羞辱。
除了图片视频之外,网站上还提供一些猥亵女孩的群直播。
这种把不知情的素人做成情色图片供陌生人浏览的猎艳有多夸张?
经受害者爆料,其中一个bot的粉丝数量达到了40万人,仅仅在学生群体中,网站的用户就很可观。
韩女根据使用telegram男学生的密度,绘制了共享地图,红点覆盖面密集得令人窒息。
还有爆料者称,素人网友去韩国街,就有被AI换脸到色情网站的。
韩国deepfake性犯罪已经渗透至养老院,老人像订阅报刊一样日常消费这些被AI恶意生成的情色,呵呵。
@奋斗在韩国
N号房和 Deepfake本质都是性剥削,但犯罪形式完全不同,Deepfake是利用女孩发布的照片来AI操作。
也就是说,后者的操作更容易更广泛,犯罪的门槛更低,女孩子成为受害者也更容易。
同时,比N号房犯罪更可怕的,是利用Deepfake犯罪的人,因为和受害者可以没有任何关系。
道德借由网线隔开,被人性煽动,再被技术麻木磨灭,在他们犯罪的过程中,受害者最大程度的被物化为牺牲品。
陌生人可以随机作案,熟人也可以, 尤其是熟人作案,很容易摧毁受害者构建起来的熟人圈层的安全感。
有一些女孩,如我们前面提到的,被周围的人辨别出来,还收到了敲诈勒索,受到了二次型的暴力伤害。
而不管是被换头还是被勒索,这些对她们来说都可以是很突然的天降横祸。
最令人恶心的是,AI换脸不仅伤害女性,还可以给男性免责,把男生的脸换了。
丑闻爆炸后,韩网上有人发帖,「我上初中的儿子会因为AI换脸性犯罪被处罚吗」。
气得网友辣评:你宝不是打游戏当什么捏脸玩家,他犯罪了哎喂!
明明Deepfake的被滥用是部分韩男在违法,最后却成为专门针对女性的一把刀。
并且,不仅是在韩国,在美国其他一些地区,也发现了这种技术在情色上的滥用。
AI换头不是恶作剧
而是犯罪
为啥Deepfake的滥用这次引起全世界范围内的痛恨?
或许会有人说,问心无愧没做,不理不就行了?显然,Deepfake的问题绝非这么简单。
在加害者眼中,换脸是无足轻重的玩笑和闹剧,对受害者而言却是拖她们进入地狱模式。
「在脸被偷走的同时,女孩们的身份、名誉、隐私、尊重也都被偷走了」。
这些被窃取被伤害的女孩,她们并不是一行图像代码,一次订阅数据,而是拥有思想、生活的真实人类。
即使只是被偷取信息换头,那些色情内容也足够令她们痛苦。
其次,Deepfake在情色行业的滥用,本质上就是对女性的性剥削。
回归到这个词出现的最早时期,Deepfake这个词在学科内指的一般是使用AI技术进行面部操作,生产假视频,制造假新闻。
这一概念最早源自一个名为deepfakes的用户,该用户在 Reddit上发布视频,将娱乐明星的脸换到色情视频上,得到了大量关注和转发。
赫敏被AI换脸后的擦边视频
也就是说,从一开始,它在色情领域的应用就是违法的。
也有学者把这种因为数码产品或者互联网技术的发展对女性造成的伤害称为「数码性剥削」。
以N号房和Deepfake为例,数码性剥削不仅包括偷拍、传播、情色资料交易等具体行为,还包括在技术层面,全体女性的权益不被制度和规则保护。
幸运的是,我们还有那些坚持为女性权益发声的科研人员。
就在前几天,上海外滩大会AI创新赛,中科院工程师张欣怡公开宣布自己会和团队一起努力攻克Deepfake的算法。
怎么攻克?简单来说就是检测这个画面是不是AI合成,类似AI查重。
张欣怡已经承诺会尽快开放针对Deepfake的应用,降低门槛让所有人免费使用。
她表示:「既然有人用技术造假,那么我们也要用技术去阻止他们得逞,如果一个人的火把太小,我们就把火把传给世界的每一个人」。
同为AI技术创作者的女博主也真情实感发声:我们做AI产品,初衷是想让社会变得更好,这才是AI的意义。
如果技术能够提供力量,就永远有比妥协更好的办法。
除了针对Deepfake的算法之外,一些好消息还在继续。
据韩联社9月5日报道,韩国警方已被拘捕韩国一名高中生,后者涉嫌使用Deepfake性暴力犯罪。
最后羊想说,犯错的人才应该被惩罚,而不是以受害者的退让为结束。
每一个女孩都是活生生的人,她们不应该被物化和性化,女孩们活着应该发光发亮,而不是被践踏,被熄灭。
女孩们的生活日常,不该成为情色网站的内容。
就像【N 号房追踪记--韩国数码性剥削犯罪记录】的作者在书中写道:
「我们要切断把女性视为漂亮的花朵,最终和性器官画上等号的父权制和资本主义的纽带」。
如果科技的进步损害了女性的权益,那么就应该有人站出来去修改。
只有女性的权益得到保护,人类的科技文明,才是真正的文明进步。