盗脸“造黄谣”、换脸诈骗……“AI换脸”骗局如何破解?

原标题:盗脸“造黄谣”、换脸诈骗……“AI换脸”骗局如何破解?

首先涌来的是羞耻、愤怒,在揭开真相的过程中,她又逐渐感受到了焦虑和恐惧。借助AI技术,那些隐藏在身边的施害者,让她陷入巨大的“不安全感”。

近些年,AI从最初的“工业级”技术逐渐“飞入寻常百姓家”,更低的使用门槛和创作成本,给施害者,甚至不法分子提供了便利。AI换脸诈骗、换明星脸直播卖货、换脸和明星“接吻”、乘地铁的照片被“脱衣”等案例层出不穷。AI盗脸“造黄谣”“一键脱衣”也突破了法律和伦理界线,侵入到普通人的生活。

被AI盗脸“造黄谣”

她说:我没想过这种事会发生在自己身上

一周前,林致 (化名)突然收到近10名陌生人发来的微信好友请求,留言都是“小姐姐,交个朋友”。

林致觉得奇怪,平日她极少把微信号给别人。她社交圈很小,除了同事、朋友和家人外,几乎不加别人微信。她一一拒绝,但有两三个陌生人反复发送请求,最终她添加了其中一名。

陌生人称,他见过林致的一些“大尺度”照片。对方先是发来几张林致的生活照,林致认出,那是自己曾发在朋友圈里的照片。随后,是她从未见过的淫秽照片和视频,那些赤身裸体的女性脸上,长着与自己相像的五官。

“我被AI盗脸了。”林致很快反应过来,她没想到,这种事会发生在自己身上。

为了弄清真相,林致又同意了另两名陌生人的好友请求。在聊天中,林致了解到,他们是在国外社交软件Telegram(下称“电报”)的淫秽聊天群中,看到有人发布了她的照片和视频,上面的文字总是带着“荡妇”“可撩”等字眼,有些暗示她是性工作者,他们再私聊发布者,获取了她的隐私信息。

尽管林致一开始就告诉他们自己已婚,但他们还是不断用轻浮的言语挑逗,“姐姐”“宠你,想追你”。

了解越多,林致越感到恐惧。制图者对她了如指掌,知道她的名字、年龄和家庭住址。而根据流出照片的时间跨度来看,制图者早就认识林致,“最早的照片是去年5月发的,最晚的是今年5月初发的,我推测是熟人作案、长期蹲守。”

林致说,“黄谣”里既有真照片,又有AI换脸的假照片,两者很像,普通人难以分辨,就更增加了“真实感”。如果要自证清白,她就掉入造谣者的圈套。她想找到那个造谣者,给自己一个交代。

▲某电报群内,普通女性日常生活的照片也成为AI盗脸的对象。网页截图

“我一直很纠结。”林致担心影响扩大,希望造谣者不要再发,可如果不发,就找不到他。林致和丈夫下载了电报,试图用陌生人提供的关键词找到线索。但只检索出许多盗用她脸伪造的淫秽图像,发布者不断销号、建新号,难以追踪。

为了抓到“活着的”制图者,她只能不停地搜索、查看,“每看一次都是精神污染。”

疫情期间,林致患上了抑郁症,两个月前病情才稳定,刚刚停药。但事发后,焦虑、怀疑和不安再次笼罩心头,脑鸣、失眠的症状也出现征兆。她担心,不久后又要服药了。

“你没有错,错的是造谣者。”丈夫和挚友不断鼓励林致。但有时,她还是会陷入自我怀疑。紧张焦虑时,她看谁都像是那个制图者。奶茶店的陌生男子、公司的同事,甚至家人,都成了她的怀疑对象。

事发后,林致弃用了十几年的微信号,在新账号的朋友圈里,她把隐私设置为“仅自己可见”。“一切分享欲都消失了,以后再不敢随便发照片。”

5月23日,林致去公安局报案,做了笔录。还有些受害者因为种种原因,选择了沉默。

一位受害者被AI盗脸造黄谣后,有陌生人加了她好友,一直给她打电话,发用AI伪造的淫秽视频。因为害怕,她不敢报警。“我又没做错什么。”她安慰自己,随后把陌生人拉黑,再不理睬。

另一位受害者告诉新京报记者,她发在社交媒体上的两张自拍照,曾被人用AI脱衣后传播。这件事让她意识到,“在任何地方都要保护好自己的隐私”才是解决之道。在她看来,电报等海外软件上的造谣者很难被抓到,维权艰难。

“那些人骚扰我时很恶心,但想到那些身体不是我的,就问心无愧吧。”

▲不少AI合成淫秽图像发布者的目的是侮辱女性。网页截图

AI换脸的门槛变低

也易引发违法问题

记者调查发现,AI制作淫秽图片的成本和门槛都相对较低,在一些网站、软件充值后,便可一键生成AI脱衣图像。

以国外一家一键脱衣网站为例,在不登录的情况下,只需等待40秒,上传符合网站要求的照片,再点击加工,不到半分钟后,便可生成脱衣后的图像。此时,显示的图像是模糊的,如果想下载高清版,则需充值。充值29.95美元,便可一键生成100张AI脱衣图像。

“想复制一个人的人脸信息,往往收集一张照片就可以实现。”一位从事多年网络安全工作的专家告诉新京报记者,以目前的AI技术,即便只有一张正面照,AI也可以通过深度学习补齐其他角度的图像,获得立体的人脸图像,再将图像映射到视频中。

这得益于AI深度学习技术已经成熟,网上有不少开源的人脸模型训练项目,具有较高的深度学习能力,很多都是操作简单的免费工具,这些都可以导出非常自然逼真的换脸视频。

在这位专家看来,尽管换脸后的图像可以达到极高的逼真程度,但只要仔细观察,还是有办法区分的。比如,注意眼部、眉毛与肤色的过渡是否自然;光影效果是否自然;画面中人物与环境的比例是否真实。另外,还可以检查图像质量,换脸涉及图像处理、合成,因而图像质量可能会受到影响,出现模糊、失真或噪点高等现象。

▲在国内某黄色网站内,“AI换脸”被列入VIP专区。网页截图

一方面,低成本、低门槛的AI换脸技术让每个人都有机会使用这种娱乐工具;另一方面,唾手可得的技术,也更容易引发违法犯罪问题。

江苏法德东恒律师事务所高级合伙人律师蓝天彬表示,在未经当事人同意的情况下,不法分子利用AI技术制作、传播淫秽图片或视频,从民事层面来看,已涉嫌侵犯当事人肖像权、名誉权和隐私权。此外,行为主体还涉嫌违反《治安管理处罚法》,公安机关可对行为人治安处罚。

蓝律师提到,若行为人以牟利为目的,且达到一定涉案数量或金额,那么行为人则涉嫌制作、传播淫秽物品牟利罪。

“即使没有牟利,行为人也可能涉嫌传播淫秽物品罪。”蓝天彬说。

河北厚诺律师事务所律师雷家茂认可上述观点。雷家茂分析,以往单纯的“造黄谣”行为,一般情况下仅为民事侵权,即侵犯名誉权,情节严重的可能涉嫌诽谤罪;而利用AI换脸技术传播他人的淫秽图片、视频及真实照片,则涉嫌传播淫秽物品罪、诽谤罪,行为人将会被数罪并罚。

雷律师表示,该类案件维权难点主要在于取证及锁定违法犯罪。因不法分子可能采取关闭网站、删除链接等措施,导致无法固定证据。此外,网络信息易传播、发布者匿名化等原因,将难以锁定发布源头。

雷家茂建议,若遇到该情况,受害者应立即截屏存证,及时报警并向警方提供自己留存的证据及线索。

AI换脸诈骗再现防止盗号是关键

除了AI换脸“造黄谣”外,近日,两起利用AI换脸实施诈骗的案例也引发关注。

继包头警方发布“福州市某科技公司法人代表郭先生10分钟内被人用AI换脸诈骗430万元”后,5月25日,安徽警方也通过当地媒体披露了一起类似案件,诈骗分子使用了一段9秒钟的智能AI换脸视频,佯装“熟人”,导致安庆经开区的何先生被诈骗245万。

短时间内曝光的两起AI换脸诈骗案,对今年以来持续火爆的AI技术发展无疑是一种警醒:未来令人“防不胜防”的AI换脸诈骗会否大规模爆发?又应如何防范这类诈骗?

新京报记者注意到,近期曝光的两起AI诈骗案例均属于针对性较强的“特定性诈骗”。在郭先生的案例中,“好友”通过微信视频联系他,表示自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。郭先生转账后拨打好友电话,才知道被骗。

而在何先生的案例中,其微信“好友”突然向其发起视频通话,电话接通后,何先生看到“好友”正在一间会议室内,并借故会议有事,通过QQ要求周转资金,导致何先生被骗。

可以发现,在上述诈骗案例中,诈骗分子对受害者和其好友的身份、日常话术均有深刻了解,才能完成诈骗。此外,在伪造好友身份这一环,通过AI伪造视频只是增加可信性,但消息确实是从“好友”的微信号发来,才造成了受害者深信不疑。

电信专家付亮表示,在何先生的案例中,首先出现微信直接联系,然后转QQ号码直连,转账也未通过微信或QQ(绕开了腾讯的安全判定),“假冒QQ好友的诈骗手法快30年了,都没有用到AI,互联网快速发展,更多防护意识较弱的人成为网民,快捷的电子转账也为骗子提供了便利。两起案例中都是盗用账号诈骗,AI换脸只是辅助。”

民间互联网安全组织网络尖刀创始人曲子龙告诉新京报记者,此类AI换脸的诈骗手段都是定向针对性诈骗,而非传统意义上“广撒网,打打电话”的电信诈骗,往往干的也都是“大单”。源头上需要防止账号被盗用,不要轻易加陌生人,“也要防止其他人用小号加你,过一段时间改成你亲友,然后再实施诈骗。”

尽快建立反诈屏障阻挡“AI换脸”诈骗潮

5月24日,中国互联网协会官网发文表示,当前利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜,提醒公众警惕“AI换脸”新骗局。

“AI换脸”诈骗的消息传来,也引发了一定程度的公众焦虑。例如,有媒体援引第三方说法,认为“AI诈骗成功率接近100%”。尽管这一概率数字明显缺少数据支撑,但在诸多案例的影响下,人们开始担忧人工智能技术的诈骗陷阱。

首先,应明确的是,从人工智能用于诈骗的技术可行性以及我国反诈的基础设施情况看,利用人工智能进行诈骗的案例虽然开始增多,但远未达到遍地蔓延的状态。

一方面,人工智能换脸需要完整获取用户的音频、完整面部等较多隐私数据,使用该技术进行诈骗的成本和门槛相对较高,短期内很难如电话电信诈骗等大规模蔓延。

另一方面,针对类似的电信诈骗,公安机关、网络平台均已建立相对完整的防控拦截机制,这些机制仍将继续发挥着保护层的作用。因此,在包头的案例中,在受骗者及时报警后,警方10分钟便追回了300多万元的资金。

生成式人工智能的普及,的确不断降低语音、面部合成伪造技术的门槛。无论是“AI孙燕姿”,还是主播利用AI换“明星脸”直播带货,都说明这一技术正在大规模普及应用。现阶段,一个有基础网络软件使用知识的人,均可借助人工智能工具轻松完成“信息伪造”,不论是模仿企业发布新闻稿,还是模仿个人的语音,甚至是进行换脸。

从信息技术发展史看,新的信息生产、分发方式的变化,容易率先在灰黑产被应用。数年前,当智能手机将移动互联网带入了下沉市场并在老年人群中普及开来后,同样引发过新型电信诈骗的高发期。

相比原子化的个人,诈骗分子总是更偏好在信息差中寻求最大的牟利空间:用更快、更新、更容易伪造的传播方式,攻破那些在新技术面前还来不及做好准备的普通人。

但从监管部门、科技公司的反应速度来看,这种极端假设很难长期成立。首先,人工智能技术本身是中立的,这也意味着,可以被用于伪造信息的技术手段和数据,同样可以被用于反制虚假信息。

例如,国内部分科研团队、科技企业已经在研发专门针对虚假信息的检测技术,不断提升对于语音、面部合成信息的检测成功率。可以预测的是,这些人工智能反诈技术都将成为对抗魔法的魔法。

最后,社会化的监督与法律法规的完善,也可以为反人工智能诈骗提供兜底性的保障。比如对于用户隐私的搜集、使用进行更坚决的保护,从源头切断诈骗分子伪造信息的可能。同时,对于人工智能相关的应用工具,也能从政策层面对其使用场景、用户门槛进行限制。

在诈骗案例开始增多,且换脸等技术在内容平台大范围普及的情况下,建立科技、政策和教育宣传的立体化屏障开始变得更为紧迫。新技术的普及速度往往超出想象,缩短从技术爆炸到社会化监管的时间,或许是技术进步对时代提出的重要课题。

本文综合新京报报道整理

本文编辑:徐彦琳

xjbcmyj@bjnews.com.cn

- 阅 读 推 荐 -

这些摄影作品好在哪里?第33届中国新闻奖专项初评结果公示

“momo”是谁引热议!网友提醒:别用在网暴上...... | 周末谈返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
推荐阅读