防范电信网络诈骗之AI新型诈骗
发布日期:2024-03-19|
分享到:
浏览量:807

目前随着人工智能技术的快速发展,不法分子借助智能AI换脸和拟声技术,就可轻松实现远程视频诈骗。骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”。骗子不是漫无目的地广撒网,而是别有用心地利用AI技术锁定诈骗对象,并生成定制化诈骗脚本。例如,在实施情感诈骗时,会筛选出经常发布情感信息的人;在实施金融诈骗时,会筛选出经常关注理财投资的人群。

案例:据媒体报道,香港警方近期披露一起涉案金额高达2亿港元的多人AI换脸诈骗案。某跨国公司职员受邀参加总部首席财务官发起的“多人视频会议”时,先后将2亿港元分别转账到5个本地银行账户内。据警方调查,这场视频会议中除了受害者外,其余均为AI换脸后的诈骗人员。目前,整个案件还在进一步调查之中,尚未逮捕任何嫌疑人。

一、如何预防AI新型诈骗?

1.加强个人信息保护意识,避免将个人信息过多暴露在网络上。以防止骗子利用AI技术掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。

2.涉及钱款往来时,进行多重验证

在涉及转账等钱款往来时,要提高安全意识,通过电话、视频等方式确认对方是否为本人。在不能确定真实身份时,可将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。

3.相互提示,共同预防

青年人要及时做好家中老人的宣传防范工作。提醒、告诫老年人在接到电话、收到短信时,只要是不认识、不熟悉的人和事,均不要理睬,以免被诱被骗。

二、如何识别AI骗局?

AI换脸等新型骗局的出现,让我们眼见不一定为实。如果生活中真的遇到了AI骗局,如何识别?

1.针对AI换脸

要求对方侧脸;要求对方用手遮挡面部或捏鼻子;询问对方私密问题验证身份。

2.针对AI诈骗电话

说话节奏、语调、情绪是否过于平淡或没有变化。

3.针对AI生成的文字

有明显的不通顺或者改写迹象,标点符号和断句错误,一个话题反复描述。

4.针对AI视频营销

留意短视频平台对于AI生成内容的提醒;留意账号发布内容机械式、批量化、内容同质化严重;AI生成的视频中人物牙齿边缘过于整齐;瞳孔颜色不一样或反射光源不一致;眨眼频率过低;视频画面出现闪烁和抖动。

社交帐号登录: 新浪 QQ