视频聊天也可能是假的
科技日新月异,改变信息,改变生活。声音可以过滤,图像可以美颜,导致网上信息真假难辨。有人可能会认为,“视频”难以造假;是真是假,打个视频电话一看便知。
的确,对于熟悉、亲近的人,即便美化了容貌,改变声音和说话内容,最起码能辨别真假。但事实并非如此,人工智能(AI)的出现,让大家以为的一切发生改变。
并且,不法分子已经利用AI技顺利实施电信诈骗,给受害者造成巨大经济损失。
案例:4月20日中午,福州市郭先生的好友通过微信视频联系他,有朋友在外地竞标,需要430万保证金,想借郭先生公司的账户走账。郭先生未加思索便答应,并且基于对朋友的信任,根本没有查证对方发来的银行转账底单截图,也未核实钱款是否到账,就分两笔把430万转了过去。
转账成功后,郭先生马上给好友发微信消息,好友却不知所云。一番电话核实,郭先生才知道自己上当受骗了。
AI技术大变活人
警方告诉郭先生,是骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
现实生活中,通过“AI换脸”发布网红视频的事件早已屡见不鲜。在搜索引擎输入“AI换脸”,会出来一长串提供类似服务的公司——
您只需要提供一张有面部的照片,便可以随意置换成影视里的男(女)主角,拟真度非常高,毫无违和感。
AI技术让“骗子”如鱼得水
AI技术的运用,让电信诈骗版本迅速升级,受害者要么毫不怀疑,要么猝不及防,要么防不胜防。
比如,骗子冒充安徽张先生的顶头上司,通过伪造的微信账号视频通话,称正在开会,不便多聊,更不能接听电话。在取得张先生信任之后,便提出为朋友借钱的要求,张先生二话没说便给领导转了账。
成都某高校小于同学在微信上偶遇高中同学,打视频电话回忆一阵两人的过往,又经过一番令人唏嘘的倾诉,小于毫不怀疑身份,还被对方“坎坷的经历”打动,毫不犹豫地从生活费中“借”了6000元给这位“同学”。
这样的案例还很多很多。在AI技术面前,什么“杀猪盘”黑手、冒充公检法和亲朋好友的骗子都可以堂而皇之地走进你的视频……
我们该怎么办?
“不是我不明白,只因为世界变化太快”。骗术在飞速精进,不断颠覆世人的想象,然而甚至我们的认知依然原地踏步。
回到前面的案例,作为当事人,您会对视频中的“上司”、“同学”产生怀疑,进而通过某种方式去核实他的身份吗?
想来一般人是不会的!但是,当对方提出借钱,并且是数额不菲的一笔款子,您难道还不提高警惕么?因此,面对形形色色、花样翻新的骗术,还是想送给老师同学们几句老话:
1、以不变应万变——千万捂紧您的钱包(账户)。
2、小心驶得万年船——在给钱或转账之前花时间核实,或找身边的人拿个主意。
3、不要相信意外——天上的馅饼、意外的惊喜往往都是甜蜜的毒药。