明明电话、视频核实了,为何还是被骗了?

科技发展日新月异

奈何骗子也不落伍

玩出了新花样

让我们赶紧了解一下吧~

AI诈骗:

“一键换脸,和你爱的明星合影”

“大叔秒变网红音”

AI变声换脸应用玩法多样

你有没有尝试过

需要注意的是

骗子也盯上了AI技术

利用它玩起了“真假美猴王”

AI诈骗常用手法

第一种: 声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

案例

2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

第二种:AI换脸

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!

骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

案例

近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。

第三种:转发微信语音

微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

第四种:通过AI技术筛选受骗人群

骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。

举个栗子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。

运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?

如何防范?

_

面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:

多重验证,确认身份

01

在涉及到转账交易等行为时,小伙伴们要格外留意,可以通过电话、视频等方式确认对方是否是本人。

在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。

即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。

保护信息,避免诱惑

02

加强个人信息保护意识。小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。

对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。

相互提示,共同预防

03

这些高科技手段的诈骗方式,迷惑了很多小伙伴。各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。

做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。

拒绝诱惑,提高警惕

04

小伙伴们要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。

来  源:山东反诈骗中心、雁塔反诈

编  辑:赵   萍

校  对:刘   敏

审  核:肖龙凤

你的每个赞和在看,我都喜欢!

(0)

相关推荐