5月7日,欧洲议会议员与欧盟成员国经过协商,就修订《人工智能法案》达成一致意见,明确同意禁止人工智能系统生成“深度伪造”类色情内容,欧洲议会议员迈克尔·麦克纳马拉对此明确表态,这是欧盟首次通过立法形式,直接叫停“脱衣换脸”这类恶意应用程序,更清晰划定了人工智能使用的“红线”——人工智能绝不能用于羞辱、剥削或危害他人。
随着人工智能技术呈现爆发式增长,生成式AI的应用场景不断拓展,给人们的生产生活带来便利的同时,也催生了一系列乱象,其中“深度伪造”色情内容的泛滥,已经成为危害个人权益、扰乱网络秩序的重灾区。
这种技术通过算法拼接、面部替换等方式,将普通人的肖像恶意植入色情画面,无需复杂操作就能批量生成虚假不雅影像,受害者往往在不知情的情况下,个人肖像、名誉被严重践踏,甚至陷入社会性死亡的困境,而这种伤害一旦造成,往往难以逆转,维权过程更是举步维艰。
此前就有高校女生的社交媒体生活照,被陌生男子利用AI技术篡改为色情图片并发布在不良平台,起初尺度较小未被重视,后续出现更大尺度内容后,受害者才意识到问题的严重性,即便最终找到侵权者并获得道歉赔偿,这段经历带来的心理阴影也难以抹去。
类似的案例近年来屡见不鲜,有人利用AI换脸技术,将他人面部信息与色情图片拼接后在境外网站散布,最终被法院以诽谤罪判处有期徒刑;还有人收集百余人脸信息,批量生成淫秽视频图片建群牟利,不仅要承担民事赔偿责任,还要面临刑事公诉,这些真实案例都在印证,AI深度伪造色情内容的滥用,早已突破法律底线和社会公序良俗。
除了普通民众深受其害,知名人工智能产品也曾陷入相关争议,美国企业马斯克旗下社交媒体平台X内置的聊天机器人“格罗克”,就曾被指生成色情内容引发广泛谴责。
根据人工智能取证组织的调查数据,2025年12月25日至2026年1月1日这短短一周内,“格罗克”以深度伪造方式生成的2万张图像中,55%的人物图像穿着暴露,其中81%的对象是女性,更令人揪心的是,有2%的图像中人物年龄不足18岁,属于未成年人,这种行为无疑是对未成年人权益的严重侵害,也让外界对AI技术的监管缺失倍感担忧。
正是在这样的背景下,欧盟此次修订《人工智能法案》,明确禁止AI生成深度伪造色情内容,绝非一时兴起,而是对技术乱象的精准施策,更是对全球人工智能治理的示范引领。
欧盟的《人工智能法案》作为全球首部全面监管人工智能的法规,一直秉持“风险防控优先”的原则,采用风险分级管理模式,将人工智能系统分为禁止、高风险、有限风险和最低风险四类,此次新增的禁令,正是对“不可接受风险”类AI应用的进一步补充和细化,让AI监管有法可依、有章可循。
此次修订过程中,欧盟也兼顾了监管与创新的平衡,欧洲议会和欧盟成员国代表同时同意,推迟实施针对高风险人工智能系统的监管规定。
按照原计划,独立人工智能系统的监管规定应于2026年8月生效,嵌入其他产品中的人工智能工具应于2027年8月实施,而此次调整后,这两个时间点将分别推迟至2027年12月和2028年8月。
欧盟委员会对此作出解释,调整实施时间的核心目的,是帮助相关企业更好地适应监管要求,避免过于严苛的监管抑制技术创新,毕竟欧盟的初衷从来不是阻碍人工智能发展,而是推动其在安全、合规的框架内健康前行。
欧盟此次划定的“红线”,不仅适用于欧盟境内的企业和个人,其效力还将延伸至欧盟区域外运营的相关公司,具有广泛的国际影响力。
这也就意味着,任何想要进入欧盟市场、接入欧盟数据的人工智能产品,都必须严格遵守这一禁令,不得生成深度伪造色情内容,否则将面临严厉处罚——根据《人工智能法案》的相关规定,对违规企业最高可处以3500万欧元,或全球年营业额7%的罚款,取二者中的较高值,这样的处罚力度,足以对各类企业形成强有力的震慑。
有人或许会质疑,这样的禁令会不会限制AI技术的创新空间,其实这种担忧完全多余。技术本身是中立的,没有善恶之分,但技术的使用者必须坚守法律和道德的底线,AI技术的价值在于服务人类、便利社会,而不是成为羞辱、剥削他人的工具。
欧盟此次的立法行动,恰恰是在为人工智能技术“纠偏”,通过明确禁止恶意应用,引导企业将技术投入到积极有益的领域,长远来看,反而能激发企业通过技术创新降低合规成本,推动整个行业走向规范化、高质量发展。


