女子地铁内“裸照”被疯传?“AI换脸换装”要有度!!
3月28日#女子地铁照被AI一键脱衣传播#冲上热搜据报道,近日,广东广州一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。
事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。
目前博主已在评论区回复各位网友,称会进行相关的维权处理。
在这则图文分享的评论区已经有众多网友评论提醒博主,催促其尽快报警,也有人热心地帮助其辟谣澄清。
AI换脸换装,或涉嫌刑事犯罪近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。
此前一网红特效合成师利用电脑后期制作,合成与某知名女星亲吻的影片在网上传播,这很容易让人认为AI合成的内容就是真实发生的,从而产生很严重的风险和侵害。
专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。
来源:广西青年圈、央视网(ID:cctvcomweixin)、中国青年报(ID:zqbcyol)、新闻晨报(ID:shxwcb),微博@泾渭视频,网友留言
都是些猥琐男搞的 怎么想的啊,还发出来,自己网暴自己 可以用高科技,但不能过度! 真是一群死变态 科技不该用在这上面 猫猫儿 发表于 2023-3-30 16:25
科技不该用在这上面
错的不是技术,可怕的是人心 太过分了!缺德 现在的人就是无聊至极,坏的很 现在穿衣服出门都不安全了吗
页:
[1]
2