在2024年美国总统大选之前,随着犯罪分子越来越多地针对社交媒体平台,人工智能身份欺诈正在上升。AU10TIX 2024年第三季度全球身份欺诈报告的最新调查结果显示,基于社交媒体的欺诈攻击激增28%,高于今年早些时候的3%。
这一令人担忧的趋势突显了欺诈策略的日益复杂,特别是当人工智能生成的机器人和deepfake技术被用来操纵公共话语并利用验证系统中的弱点时。
人工智能驱动的欺诈
欺诈行为的爆炸性增长,特别是在社交媒体上,源于人工智能将身份盗窃工业化。欺诈者正在使用自动化工具创建数千个虚假账户,其中许多账户使用先进的生成人工智能元素来逃避检测。
这些攻击达到了新的高度,9月标志着欺诈活动的高峰。根据该报告,其中一些欺诈账户甚至在选举前传播虚假信息,为在线互动增加了危险的层面。
2024年第三季度的报告强调,针对社交媒体平台的欺诈企图急剧增加,特别是那些采用deepfake技术的平台。
欺诈者现在可以创建完全合成的自拍照来匹配假身份,轻松绕过传统的验证方法。这些deepfake“自拍”现在已经足够复杂,可以智胜许多自动化设备了解你的客户系统。
欺诈者与安全系统
在欺诈中越来越多地使用人工智能正在引发犯罪分子和公司之间的军备竞赛。人工智能驱动的机器人现在可以发动大规模攻击,完全使用deepfake技术制作的合成自拍的兴起是对日益复杂的安全措施的直接回应。虽然人工智能驱动的欺诈工具可以帮助欺诈者保持领先地位,但企业必须采用同样先进的人工智能解决方案来保护自己。
传统的文件验证已经不够了。公司需要分析用户行为和流量,以发现异常模式并检测欺诈行为。有趣的是,尽管社交媒体欺诈在第三季度激增,但付款 该行业从第二季度的52%大幅下降到第三季度的39%。
AU10TIX将这种下降归因于自己-规则 尽管报告指出,犯罪分子正将注意力转移到监管较少的市场,如数字加密货币,占第三季度所有欺诈攻击的31%。
尽管存在这些挑战,但据报道,支付行业在减少欺诈方面取得了显著进展,但加密货币仍然是一个不断增长的目标。