新型诈骗骗26万 (新型诈骗被骗100多万)

你是否听说过AI换脸技术?这是一种利用人工智能和计算机视觉,将一张人脸特征映射到另一张人脸上,实现快速、高度逼真的换脸效果的技术。

这种技术可以被应用到各个领域,比如美颜换脸、影视制作、虚拟主播等。但是,如果被不怀好意之人滥用这种技术,也会给我们带来危害。不少人利用AI换脸技术进行诈骗,骗走了无数人的钱财。

新型诈骗被骗6万元,新型诈骗被骗几十万

这种诈骗的手法很简单,就是冒充你的亲友或者熟人,通过微信视频电话或者直播平台联系你,然后以各种理由让你转账或者购买商品。

因为你看到的是对方的真实面孔和声音,而且可能还是你非常信任的人,所以你很容易放松警惕,相信对方所说的一切。等你发现自己被骗了,钱已经打水漂了。

这种诈骗的案例已经不少见了。

有一个人收到了一个微信视频电话,是他的好友打来的。好友说他在外地竞标一个项目,需要缴纳多少的保证金,而且需要公对公账户过账,想要借他公司的账户走账。

这个人看到好友的面孔和声音,没有多想就同意了,并把钱转到了对方提供的账户上。后来才知道自己被骗了,整个过程不到10分钟。

这说明了一个问题:AI换脸技术已经发展到了一个非常高级的水平,可以轻易地欺骗我们的眼睛和耳朵。我们不能再单纯地相信视频通话或者直播中所看到和听到的一切。

我们必须提高警惕,增强防范意识,不要轻易相信网络招聘信息、不要贪图虚假高薪、不要冒险出国打工、不要随意转账或者购买商品。

那么,我们该如何预防这种AI换脸诈骗呢?这里有几个建议:

- 多一次验证。

当你收到视频通话或者直播时,不要只看对方的面孔和声音,还要注意对方的表情、动作、环境等细节,看是否自然和合理。

如果有任何可疑之处,可以换个渠道多一次验证,比如回拨对方电话号码通话验证,或者问一些只有你们两个人知道的问题验证。

- 设置暗号。

和家人朋友之间可以设置一些暗号,尤其是涉及到钱财方面的事情,可以用暗号来确认对方的身份。比如说一句特定的口头禅,或者说一个特定的数字,或者做一个特定的手势等。

- 保护个人信息。

尽量不要在社交媒体上发布个人及家人相关照片、语音、视频等,以防被诈骗分子利用。如果必须发布,也要设置好隐私权限,只让自己信任的人看到。

同时,也要注意保护自己的银行卡号、支付密码等财务信息,不要随意透露给他人。

- 及时报警。

如果你发现自己已经被骗了,或者遇到了可疑的视频通话或者直播,一定要及时报警,向公安机关求助。不要因为害怕或者羞愧而隐瞒事实,以免错失追回损失的机会。

AI换脸技术是一把双刃剑,既可以带来便利和乐趣,也可以造成危害和伤害。

我们不能因为技术的发展而放弃我们的理智和判断力。

我们要用法律和道德来约束和引导技术的使用,让技术为我们服务,而不是为我们制造麻烦。我们要在享受技术带来的好处的同时,也要防范技术带来的风险。

我们要在网络世界中保持清醒和警惕,不要轻信眼见为实,不要轻易上当受骗。