当熟悉的面孔、逼真的声音通过屏幕和你说话时,你能否分辨那是真情还是假意?AI技术在满足社会公众社交等需求的同时,也被一些不法分子利用,通过“AI换脸”、AI合成声音等手段冒充他人实施诈骗,编织起更具迷惑性的新型骗局。
今天,我们就来揭开AI新型骗局背后的真相。
骗局一:冒充熟人诈骗钱款。在实施犯罪前,骗子常通过分析公众发布在网上的各类信息,或是通过非正规的借贷、兼职平台获取用户的人声人脸素材。然后再利用这些影音素材,借助AI声音合成和AI换脸技术,向该用户的亲友发送虚假语音信息,或实时视频通话,用以假乱真的声音、面容博取信任后实施诈骗。
骗局二:冒充名人进行虚假宣传。一些不法分子通过AI技术,将知名企业家、金融专家甚至娱乐明星的面部和声音进行合成,诱导用户和粉丝点击链接下载恶意软件或输入个人信息,造成消费者信息泄露;或是利用该公众人物的社会影响力“直播带货”,诱导不明真相的消费者购买伪劣产品。
骗局三:盗开账户诈骗钱款。不法分子冒充公安、司法等部门工作人员与消费者联系,通过视频通话盗取消费者面部信息,然后利用AI换脸等技术通过一些APP账户注册人脸识别验证,从而将消费者银行卡上的资金转移到不法分子控制的账户上。
面对AI新型骗局,应该如何防范呢?牢记以下三点:
一要多方核实,确认身份。亲友熟人线上发来的消息,若包含转账汇款、提供个人信息、提供短信验证码等涉及重要决策或敏感信息的请求时,应保持高度警惕,通过主动更换渠道如电话、视频提问等方式多重确认对方身份。
二是保护信息,拒绝诱惑。提高信息保护意识,特别警惕需要录入个人信息的非正规软件,如走路赚钱、刷单兼职等APP。在开启“定位服务”、输入“身份证号”或是录入“人脸识别信息”等个人信息时一定要慎之又慎,对不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,不轻易向陌生人开启手机屏幕共享。
三是相互提示,共同防范。对身边的亲友多加提醒,互相交流,特别是对AI技术不太了解的中老年人加强反诈提示:视频电话眼见、耳听未必属实;勿与陌生人视频通话,个人信息不要轻易对外提供,共同提高风险防范意识,保护个人信息安全。
风险提示:基金有风险,投资须谨慎。投资人应当阅读《基金合同》《招募说明书》《产品资料概要》等法律文件,了解基金的风险收益特征,特别是特有风险,并根据自身投资目的、投资经验、资产状况等判断是否和自身风险承受能力相适应。基金管理人承诺以诚实信用、谨慎尽责的原则管理和运用基金资产,但不保证基金一定盈利或本金不受损失。过往业绩不预示其未来业绩,其他基金业绩不构成本基金业绩的保证。
