DC娱乐网

不到一年,被捧上神坛的“英雄”成了“人人喊打的过街老鼠”,国家是时候出手管管AI

不到一年,被捧上神坛的“英雄”成了“人人喊打的过街老鼠”,国家是时候出手管管AI了,而决不能一味地推崇推广,任何事物都是有利有弊的,科技就是把双刃剑。
 
2026 年 3 月,公安部刑侦局发布的反诈形势通报里写得明明白白,用 AI 语音、视频克隆实施的诈骗案件,同比上涨了 187%,是现在所有电信诈骗类型里增速最快的,全国累计涉案金额已经超过了 32 亿元,单个案件里,受害人最高一下子就被骗走了 500 万元。
 
可能有人觉得,这种高科技诈骗离自己很远,都是骗那些有钱的老板,那可就大错特错了。
 
这些用 AI 搞诈骗的骗子,最会挑人下手,尤其是上了年纪、对新技术不了解的老年人,成了他们最主要的目标。
 
湖北黄石就有这么个案子,三个年过七旬的老人,先后接到了一模一样的电话,电话那头是自家孙子焦急的声音,哭着说自己在外面把同学打伤了,需要两万块钱私了,不然就要被警察抓走。
 
老人一听自家宝贝孙子出了事,心里一慌,哪里还顾得上多想,分别都取了两万块现金,交给了骗子派来上门取钱的人,三位老人加起来,一下子就被骗走了六万块。
 
等老人反应过来给家里孩子打电话,才知道孙子根本没出事,电话里那个声音,根本就不是孙子本人,是骗子用 AI 技术,只靠网上几段几秒的语音条,就克隆出来的,连说话的语气、撒娇的习惯,都跟真人分毫不差。
 
这样的事情,现在全国各地都在发生。
 
河北沧州的王大妈在银行咨询养老保险的时候,突然接到了儿子的电话,电话里的声音跟亲儿子一模一样,说有个内部保险,年化收益特别高,今天是最后一天认购,还差两万块钱,让王大妈赶紧转过去。
 
王大妈当场就要去转账,要不是银行的工作人员拦着,反复提醒她打个视频核实,这两万块养老钱就直接进了骗子的口袋。
 
等王大妈拨通儿子的视频电话,才知道儿子根本就没打过这个电话,刚才那个以假乱真的声音,全是 AI 合成的。
 
别以为只有老年人会被骗,就是天天玩手机的年轻人,也照样躲不过 AI 的陷阱。
 
山西有位陈女士,开车的时候接到了哥哥发来的 QQ 视频通话,虽然视频只有短短不到十秒,可画面里的人脸、说话的声音,全都是她亲哥哥的样子,对方说自己有急事,急需借三万块钱。
 
陈女士没多想,当场就先给对方转了两万块,转完钱之后越想越不对劲,给哥哥打了个电话,才知道自己遇上了骗子,哥哥的账号早就被盗了,刚才的视频和声音,全是骗子用 AI 换脸和语音合成做出来的,要不是警方紧急止付,这两万块钱就再也找不回来了。
 
甚至还有更离谱的,香港一家跨国公司的财务,被骗子用 AI 多人换脸技术拉进了视频会议,画面里全是公司总部领导的样子,对方让财务往指定账户转钱,就这一下,财务先后转了 15 次,一共被骗走了 2 亿港元。
 
现在 AI 的乱象,早就不只是诈骗这么简单了。
 
网上随便找个平台,花几块钱,只要你提供 3 到 5 秒的原声音频,几分钟就能给你克隆出高度相似的声音,想说什么台词都能改。
 
明星、主持人的声音,影视剧里配音演员的原声,都被人扒出来放到网上,当成素材随便用,有的配音演员的声音素材,使用人数早就过万了。
 
还有山东青岛警方前不久破的案子,直接查获了五万多条用 AI 技术合成的动态人脸视频,这些视频里的人会摇头、眨眼,能骗过绝大多数平台的人脸识别系统。
 
骗子拿着这些视频,就能用别人的身份信息,实名注册带支付功能、直播权限的社交账号,这些账号转头就被卖到网上,一个能卖一两百甚至三百块,背后已经形成了一条完整的黑色产业链。
 
当初所有人都在喊着要推广 AI、发展 AI,可谁也没料到,AI 最先被用到极致的地方,竟然是骗子的手里。
 
其实说到底,科技从来都是一把双刃剑,有好处就必然有坏处,AI 能给我们的生活带来便利,也能被坏人当成坑害普通人的工具,而且这种工具的危害,比传统的骗术要大得多。
 
以前的骗子还要费劲练口音、编剧本,现在有了 AI,几秒钟就能复刻一个人的声音和样貌,别说老年人分不清,就是天天跟手机打交道的年轻人,盯着视频看,都未必能看出破绽。
 
到了现在这个地步,真的不是一味地推崇推广 AI 的时候了,国家是时候出手好好管管这门技术了。
 
我们不能只盯着 AI 能带来多少收益、多少便利,就放任它背后的风险野蛮生长,要是任由这些 AI 诈骗、AI 造假的乱象发展下去,不知道还有多少人会被骗走养老钱、血汗钱。
 
如果一门所谓的先进技术,最后成了骗子手里的利器,让老百姓人人自危,那就算它再先进,也失去了原本的意义。