湘潭金老倌 时刻小心被诈骗、敲诈!

金真

<p class="ql-block">  12月11日,我用“快乐老人快乐行”制作的美篇,在网上发布后,阅读人数达到了9200人,点赞91人,送鲜花12人,打赏1人。衷心感谢各位网友的厚爰!</p><p class="ql-block"> 其中有一位网友”杰西卡”,发来一诗,赞美我们的南下快乐行。她告诉我,只要对诗的内容提出要求,用Al不到10秒钟这首诗,就“写”好了。</p> <p class="ql-block">杰西卡发来的Al制作的赞美诗的截屏</p> <p class="ql-block">无独有偶,网友“罗拉”,也发来用我美篇中的照片,制作的Al视频。</p> <p class="ql-block">原照片</p> <p class="ql-block">用Al制作的短视频</p> <p class="ql-block">我真是井之蛙,看到他们用Al制作的诗和视频,我真是感到十分新奇!</p><p class="ql-block">于是询问了姪女后,我也用张铁林的头像,先是编辑,再去水印,然后制作了一个短视频。</p> <p class="ql-block">网上下载的张铁林图片</p> <p class="ql-block">用Al制作的短视频</p> <p class="ql-block">  我上网查了一下,‌AI(人工智能)是指通过人工的方法和技术,模仿、延伸和扩展人的智能,形成能以人类智能相似的方式作出反应的机器智能‌。人工智能是计算机科学的一个分支,旨在让计算机模仿人类的决策能力、思考和行动,以解决复杂问题。‌</p><p class="ql-block"> 这种人工智能是先进的科技,对社会的发展和进步,肯定是有促进的。</p><p class="ql-block"> 但不可忽视的是,也有一些心怀不轨的人,利用这一技能,进行各类违法、违规活动。特别是老年人在日常生活中,要特别警惕这类诈骗行为。</p> <p class="ql-block">  2023年5月24日,中国互联网协会公众号发文提示“AI换脸”新骗局。2023年以来,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。</p> <p class="ql-block">具体案例:</p><p class="ql-block"> 2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。</p><p class="ql-block"> 2021年,杭州市拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。</p><p class="ql-block"> 2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。</p><p class="ql-block"> 2023年,内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。</p><p class="ql-block"> </p>