3人被骗6万!AI「孙子」正疯狂收割老年人……
发布时间:2026-03-10 14:16 浏览量:1
现在打开短视频平台刷视频,到底哪些是真的,哪些是AI生成的,越来越难辨别。
随着生成式AI的一路狂飙,加上平台监管没跟上,虚拟与现实的边界悄然被打破。
自然,如果只是当作娱乐,真假难辨,并没有什么大的问题,然而,技术进步的这柄双刃剑,一边在大幅提升人类的生产力,但另一方面,通过技术作恶捞偏门的也在这一波红利中杀疯了!
有人盗用名人的肖像、声音等生物特征,生成虚拟人代言、带货三无产品,疯狂收割用户;
也有人通过AI技术将明星肖像声音换成色情视频。
更有甚者,将AI当成了商战的工具,造谣同行,比如前不久,小鹏汽车的模特被生成色情图,全网疯传。
而普通素人被通过AI被造黄谣的事每天都在疯狂地上演,比如之前小柴写过的——女子地铁照被AI一键脱衣后传遍全网,AI的潘多拉魔盒打开了……
甚至有之前曝光过的一个网站,几万会员,每天都在上传这类照片与视频,他们的目标是身边的同事、同学,甚至亲人……
当然,在这些案例之外,AI似乎也给电诈插上了翅膀,让收割更加的精准和高效,比如今天的一个热搜话题——3名老人被AI孙子骗了6万……
事情大概是,最近最高法公布了2026年一系列典型电信诈骗案例,其中有案例显示,多名老人因诈骗分子利用AI拟声技术克隆孙子声音,被骗共计6万元现金。
据了解,在这几起案例中,诈骗团伙通过社交媒体,如短视频等平台,获取但这些老人孙子的语音样本,随后利用AI拟声技术克隆出高度逼真的声音,模仿方言、语气甚至哭腔。
随后电话或者语音、视频联系老人,制造「孙子出事急需用钱」的紧急场景,老人为了解救孙子,毫无防备的打开钱包,交出养老钱。
这个案例中,最终,骗子以诈骗罪被判处有期徒刑二年一个月。
有网友对此表示,这不是简单的钱财损失,更是对老人最柔软的亲情的利用。我们总以为高科技诈骗离长辈很远,却忽略了他们对家人毫无保留的信任,成了骗子最容易攻破的防线。
然而,这并非个例,还记得此前,冲上过热搜的话题,江苏邳州的李奶奶一天突然接到一个陌生来电。
电话接起后,对方开口就喊奶奶,一听声音和说话的语气,李奶奶认准了对方就是自己的孙子。
「孙子」告诉李奶奶,自己因涉嫌强奸,需要花钱,因为这事比较丢人,不敢告诉父母,旁边还有所谓「叔叔」打配合。
李奶奶没办法,四处向邻居借钱,凑了5万元,交给上门收钱者。几天后,老人想起电话本里有孙子的电话号码,询问后发现,压根没有这回事。
类似的还有前不久的一个案例,有老人表示,自己接单一个电话,电话那头传来「孙子」急促的哭腔:「爷爷,我在学校跟人打架,把同学打伤了,对方要赔4万块,不然就要坐牢!」
听到这里,老人当时就懵了随后,电话那头传来「辅导员」的声音,说事情很严重,必须私了,而且不能告诉父母,否则孙子就要被开除。
老人顾不上多想,赶紧去银行取了4万现金。就在我要按照对方指令把钱交给一个「来取款的学长」时,接到了真孙子的电话,询问才知道根本没有这回事。
而显然,如今借助AI实施电信诈骗,已经成为一门完整的链条,而老人成为最核心的目标。
数据显示,2025年全国AI语音诈骗案同比增470%,老年人受骗率超38%,单案平均损失12.6万元。
值得注意的是,随着AI技术的进步,AI电诈的门槛也快速被抹平,比如语音克隆工具,如今几十块钱就能买到。
而获取用户的声音、肖像,除了在社交媒体上盗取,骗子还会通过骚扰电话、社交平台语音等途径获取受害者亲属(多为孙辈)的10秒以上声音样本。
自然,在这些案例中,还有一个细思极恐的地方在于个人信息的泄露,但凡个人信息泄露,诈骗团伙就能实施精准的打击,尤其在叠加了声音克隆和AI换脸后。
而在这类案例中,为了规避转账监管,诈骗分子会派专人20分钟至6小时内上门收取现金。
去年小柴还报道过一个类似的案例——被“表哥”开视频骗走30万!电诈用AI快人一步实现了降本增效……
有一位网友一天突然在某段视频平台收到自己「表哥」发来的私信,称急需周转需要借30万。
表弟足够谨慎,开了视频进行验证,结果视频对面是活生生的「表哥」,随后就将30万转账给对方。
但转完30万后,对方要求再转35万,但当去看「表哥」短视频平台账号时,发现对方的账号已经被封禁,最后致电真表哥,才发现被骗。
而生成一个虚拟人,如今也几乎没有门槛,仅需几个小时加上十来张照片就能生成,如果有动态视频,那就更容易了。
看了这些案例,让小柴十分感慨的是,AI对于大部分人来说,如今还只是娱乐,但电诈分子,已然通过AI实现了降本增效。