警惕AI黑色产业链批量“造黄谣”
作者头像
  • 杨婉倩
  • 2023-07-13 09:46:37 3071

导读:

AI绘图机器人具备多元功能。近日,中央网信办发布了《关于开展“清朗2023年暑期未成年人网络环境整治”专项行动的通知》,决定在接下来的两个月内,集中清理未成年人网络环境中的不良信息。此次行动特别强调了对新兴技术与应用可能带来的风险的关注,特别是对“AI换脸”等技术可能引发的涉未成年人低俗色情内容的生成与传播问题,进行了重点整治。

如今,AI技术被不法分子利用,形成了一条暗藏风险的黑色产业链。上游的非法从业者通过AI技术生成图片,并整合打包成图集,通过线上平台以成套方式向下游买家出售,有的甚至建立了会员群,使众多无辜者,包括未成年人,陷入“黄谣”风波。中青报中青网记者对此进行了深入调查。

图片集:警惕AI黑色产业链批量“造黄谣”

不法分子在网络上公然叫卖AI图集。受害者们发现,自己的照片被非法处理,用于制作色情内容,这不仅是对个人隐私的侵犯,更是对人格尊严的践踏。

黑色产业链波及未成年人

案例:大学生李亦(化名)收到了包含自己脸部形象的不雅图片。她随即追查到制作裸照的洛粉(网名)。洛粉承认,他使用AI软件将李亦的照片进行“脱衣”处理,并以5元一张的价格公开叫卖,声称60元可以打包获得60多名博主的“裸照”,其中甚至包括未成年人。

李亦与洛粉对质,洛粉最终承认了自己的错误行为。然而,他试图以赔偿私了的方式解决问题,却未能逃脱法律的制裁。李亦选择报警,维护了自己的合法权益。

AI技术滥用危害未成年人

AI技术被滥用的情况并非个案。在网络上,只需输入特定关键词,即可轻松找到提供“AI脱衣”服务的商家。他们以“AI绘画”、“AI改图”为幌子,通过社交媒体吸引顾客,随后展示含有暗示性质的图片,诱导购买。

案例揭示,AI技术被不法分子用于侵害未成年人,包括使用未成年人照片制作色情内容,形成了严重的社会问题。专家指出,AI技术的伦理与法律问题日益凸显,需要从保护儿童权益的角度出发,构建更加健全的安全规则体系。

建议从“最有利于未成年人”原则构建网络安全规则

专家建议,面对新技术新应用的风险,应从保护未成年人的角度出发,制定更加细致的网络安全规则。这包括建立针对未成年人的年龄分级管理规则、强化监护人知情同意机制等。

结语:

随着中央网信办专项行动的启动,对网络环境的整治力度显著增强。这不仅是对网络空间的净化,更是对未成年人健康成长的有力保障。社会各界应共同努力,防范新技术带来的风险,保护未成年人免受网络侵害,营造一个健康、安全的网络环境。

来源:中国青年报

    本文来源:图灵汇
责任编辑: : 杨婉倩
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
产业链批量警惕黑色黄谣”
    下一篇