以案说险——小心AI骗局 所见未必是真

头条新知
2024 10-03 16:30:37
分享

一、典型案例              

不久前,小张的同学通过微信联系自己借钱,对方打过来一段视频电话,称自己因为意外在医院就诊,急需交费1000元,需要小张帮忙周转一下等在学校办理的学平险理赔后就还钱,然后表示信号不好,而且自己在办理急诊手续不方便就挂断了。小张看到确实是同学本人,且非常着急,便当场转账了1000元。事后小张想想感觉不安,拨打同学电话,方才得知同学的微信账号被盗,当时和小张视频的根本不是同学本人。小张这才意识到自己上当受骗了,对方是通过AI技术合成了特定的影像和声音,还有很多同学都收到了同样的视频电话。

二、案例分析

今年以来,使用智能AI技术进行诈骗的案件屡见不鲜。AI诈骗常用的手法有:

1.声音的合成:通过骚扰电话进行录音,提取某人的声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

2.AI换脸:基于发布的照片、视频,通过人体图像合成技术,生成假脸。

3.转发微信语音:通过提取微信语音文件或安装非官方版本(插件),实现语音转发。

本案中,不法分子通过智能AI换脸和拟声技术,制造视频聊天的假象实施诈骗,让小张同学蒙受了经济损失。

三、风险提示

一是切勿轻信他人,身份信息多重核验。转款汇款前一定要通过电话、见面等多种沟通渠道核验对方身份,未经核实不要轻易转账汇款。

二是保护个人信息,提高安全防范意识。在网络平台上不过度公开或分享动图、视频等,提高自我保护意识。

三是遇到诈骗风险,保留证据及时报案。如不慎被诈骗,发生资金损失,注意保留聊天记录、转账截图等证据,及时拨打96610(反诈专线)报警。(中国人寿寿险重庆市分公司供稿)


The End
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。