<p class="ql-block">继内蒙古包头一家科技公司的老总10分钟内被电信诈骗430万后,安徽又发生了一起9秒内被电信诈骗245万的案例,这类诈骗套路如出一辙:<b style="color: rgb(22, 126, 251);">“熟悉的朋友+熟悉的声音”</b>,无一例外地都与一个新兴科技名词产生了联系:<b style="font-size: 22px;">AI换脸</b><span style="font-size: 18px;">。</span></p> <p class="ql-block">AI换脸,就是通过AI人工智能技术,把别人的脸换成自己的脸。AI换脸诈骗如果得手必须做到:<b style="color: rgb(22, 126, 251);">收集到被换脸对象的个人身份信息、大量人脸图片、语音素材,通过AI生成以假乱真的音视频;窃取被换脸对象的微信号;充分掌握诈骗对象个人身份信息,熟悉其与被换脸对象的社会关系。</b>所以,AI换脸诈骗成功的难度系数虽然很大,但不成功则已,一旦成功,被诈骗的金额绝不是小数目。</p> <p class="ql-block">那么,AI换脸诈骗,都有哪些常见套路呢?</p> <p class="ql-block"><b style="font-size: 20px;">第一种:声音合成</b></p><p class="ql-block">骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。</p> <p class="ql-block"><b style="font-size: 20px;">第二种:AI换脸</b></p><p class="ql-block">人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。</p><p class="ql-block">骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。</p> <p class="ql-block">对于普通人来说,AI换脸术诈骗虽然防不胜防,但要想守护住自己的“钱袋子”,也并非无计可施。</p> <p class="ql-block">提醒大家,防范AI换脸术诈骗:</p><p class="ql-block">➡️不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。</p><p class="ql-block">➡️对网络上任何东西,无论是视频、语音,还是视频聊天,都要保持警惕心。</p><p class="ql-block">➡️陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。</p>