📢 转载信息
原文链接:https://cn.technode.com/post/2025-12-25/malaysia-ai-social-engineering-threats/
原文作者:Technode
根据Tech in Asia的报道,马来西亚正面临一个日益增长的威胁:犯罪分子利用人工智能(AI)技术,特别是深度伪造(Deepfake)语音技术,进行社交工程诈骗。
这些诈骗分子利用AI工具来模仿受害者亲友的真实声音,通过电话联系受害者,声称自己处于紧急状况并要求转账。这种新型诈骗手法因其极高的真实性,给公众安全带来了严峻的挑战。
AI诈骗的复杂性与高成功率
社交工程诈骗通常依赖于建立信任和制造紧迫感。在传统诈骗中,声音是判断来电者身份的关键因素之一。然而,AI语音克隆技术的出现,使得诈骗分子能够轻松绕过这一验证机制。
报道指出,犯罪分子只需收集目标人物的少量语音样本,就可以生成高度逼真的合成语音。当受害者接到一个“熟悉”的声音打来的紧急求助电话时,心理防线往往会在短时间内瓦解,从而上当受骗。
执法部门与金融机构的应对措施
面对这种技术驱动的犯罪浪潮,马来西亚的执法部门和金融机构正在采取积极措施进行应对。
1. 技术检测与预警: 银行和电信运营商正在加强对AI生成语音的检测能力,并探索集成实时声音验证系统。
2. 公众教育活动: 官方机构正大力开展宣传活动,提醒民众对任何涉及金钱的紧急电话保持警惕,特别是要求立即转账的请求,无论来电者是谁。
3. 加强跨部门合作: 警方呼吁民众一旦发现可疑情况,应立即报警,并与金融机构联系核实信息,而不是在电话中仓促做决定。
未来展望
尽管正在采取预防措施,专家警告称,AI技术的发展速度意味着诈骗手法将持续演变。随着生成式AI在语音和视频领域的进一步普及,未来识别“眼见为实”或“耳听为真”的难度只会越来越大。
对于普通民众而言,培养对AI合成内容的批判性思维和多重验证习惯,是目前对抗此类威胁的最有效策略之一。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区