在数字化时代,科技的双刃剑效应愈发显著。AI技术的迅猛发展,不仅为人类带来了前所未有的便利,也成为不法之徒的新工具。近期,一种新型的诈骗手段——AI换脸和AI拟声,正悄然在全球范围内蔓延,给公众的财产安全带来了严重威胁。
据最新报道,英国Starling银行对超过3000名英国居民进行了一项调查,结果显示,利用AI技术进行的“拟声”诈骗已经成为当地一个不容忽视的问题。这种技术能够通过分析短短三秒的音频样本,模拟出受害者亲友的声音,进而实施诈骗。
调查数据揭示了一个令人不安的现象:有28%的英国成年人在过去一年中成为了这种高科技声音克隆诈骗的潜在目标。更令人担忧的是,有46%的受访者表示,他们对这种诈骗手段一无所知,这意味着他们在面对此类诈骗时,更容易成为受害者。
在社交媒体上,超过3秒的语音信息随处可见,这为诈骗分子提供了可乘之机。他们可以轻易地获取到目标人物的家庭成员的声音样本,然后通过AI技术克隆这些声音,拨打电话、发送语音信息或语音邮件,利用受害者的信任和情感来骗取钱财。
调查中还发现,每10人中就有1人(占比8%)表示,如果接到看似可疑的电话,他们仍然会提供所需的信息。这种轻信的态度无疑增加了诈骗分子得手的可能性。
为了应对这一问题,Starling银行建议公众不要仅凭声音来判断来电者的身份,而是应该与亲友之间设定一个特定的暗语或短语,以便在必要时核实对方的真实身份。此外,报道还指出,英格兰和威尔士地区的金融诈骗案件数量正在上升,去年的增长率达到了惊人的46%。
更令人震惊的是,根据之前的报道,仅在2022年一年内,美国老年人因诈骗而损失的金额高达16亿美元(约合113.6亿元人民币),其中不少案件就是利用AI技术克隆熟人声音或其他AI生成的诈骗手段。
面对这种新型诈骗手段,公众必须提高警惕,加强自我保护意识。同时,政府和相关机构也应加大打击力度,采取有效措施,保护公民的财产安全不受侵害。