AI模拟任何声音!骗子正在用人工智能诈骗,如何做好防范?

2024-05-18 25 0

今年早些时候,微软推出了一种新的人工智能(AI)系统,该系统可以在听到一个人说话后短短三秒内再现该人的声音。

这标志着人工智能能够以多快、令人信服的速度复制某人身份的关键部分。

以下是某人向系统输入的3秒语音提示的示例:

接下来是一个名为VALL-E的人工智能在被要求重现人的声音时生成的语音。人工智能说道:“其他人对延迟感到厌恶,但正是他的担忧让他感到高兴。””。

据了解,《副》杂志记者约瑟夫·考克斯后来也使用了类似的人工智能技术,利用人工智能复制自己的声音来登录自己的银行账户。

今年3月,澳大利亚卫报记者NickEvershed表示,他使用人工智能来发出自己的声音并访问他的Centrelink自助服务账户,这引起了一些安全专家的担忧。

虽然诈骗者可以利用语音克隆,但这并不是专家认为诈骗者利用人工智能的唯一方式。

让我们看看如何使用这项技术以及如何最好地保护自己。

人工智能可以复制任何人的声音

《卫报》的一项调查显示,Centrelink和澳大利亚税务局(ATO)使用的“声纹”安全系统-该系统使用短语“在澳大利亚,我的声音识别我”-确实很容易被愚弄。

这感觉就像1992年电影《运动鞋》中的场景,罗伯特·雷德福(RobertRedford)饰演的角色使用某人的录音来通过安检。

ServicesAustralia在其2021-22年度报告中表示,语音生物识别技术每天用于验证超过56,000个呼叫,其中39%的呼叫用于Centrelink的主要业务号码。它还表示指纹“与指纹一样安全”。

澳大利亚税务局表示,“有人很难模仿你的声音并获取你的个人信息”。

皇家墨尔本理工大学信息科学教授丽莎·吉文博士表示,人工智能生成的声音还可以欺骗人们,让他们相信自己正在与认识的人交谈。

“当一个系统可以合理地复制我的声音并添加同理心时,你可以想象,诈骗者可能会从发送短信说‘妈妈,我丢了手机’到拨打电话或发送语音邮件,真正试图创建那个人的声音,”她说。

上个月,美国联邦贸易委员会警告消费者不要使用人工智能生成的声音来冒充家庭成员的紧急电话。美国联邦调查局还对虚拟绑架诈骗发出了警告。

这些担忧促使专家提出了一些人们可以用来保护自己免受语音欺骗的基本策略:

直接致电朋友或家人以验证他们的身份,或在电话中说出验证词以确认这是真正的紧急情况。

警惕意外来电,即使是您认识的人,因为来电显示上的号码可能是假的。

如果有人要求您分享个人身份信息,例如您的地址、出生日期或姓名,请务必小心。

网络安全软件公司GenDigital亚太区董事总经理MarkGorrie表示,人工智能语音生成器在欺骗人类和安全系统方面将变得越来越强大。

“多年来,仅使用声音就可以轻松检测‘机器人网络钓鱼’,但基于音频的人工智能将变得更加相同,显然它使用的文本会更好。”

人工智能系统也越来越多地被用来识别基于人工智能的诈骗。(Unsplash:TowfiquBarbhuiya)

诈骗者利用人工智能生成的文本和虚假产品评论来欺骗人们

随着人工智能系统的改进,大规模语言模型,例如OpenAI流行的ChatGPT聊天机器人,可以更好地模仿人类的反应。这是诈骗者试图在电子邮件、短信和他们自己创建的其他聊天机器人中重现的内容。

“我们人类在与人建立关系时使用的同理心和社交线索的概念正是诈骗者可以使用的技术,”吉文博士说,并将其集成到他们的系统中。

诈骗者利用人工智能进行欺诈,通常涉及声称来自合法来源的电子邮件或短信,但最终使用社交工程来获取个人信息。有些消息还可能使用链接将您带到危险网站。

吉文博士表示,聊天机器人和大型语言模型可以通过“调整语言”并使信息更加个性化,从而使网络钓鱼活动更具说服力。

“过去,网络钓鱼电子邮件充满了拼写错误和虚假细节。足以让人们问:‘这封电子邮件是谁写的?这是什么?近年来,短信诈骗实际上已显着增加,诈骗者正在使用更多平台,”她说。

网络安全公司Darktrace表示,2023年前几个月,复杂且新颖的社会工程攻击增加了135%,这与ChatGPT的广泛采用相对应。

“与此同时,包含链接或附件的恶意电子邮件数量有所减少。这一趋势表明,ChatGPT等合成人工智能正在为威胁行为者提供一种高速、大规模创建复杂且有针对性的消息的方法。”。

高力表示,GenDigital预计此类骗局将继续增加,因为即使是技术能力较差的人也很容易实施此类骗局。

“不要认为仅仅通过观察就能判断某件事是真是假,”他说。“你必须持怀疑态度,并对你所看到的进行批判性思考。”

Darktrace首席产品官MaxHeinemeyer表示,该公司还使用人工智能来帮助识别基于人工智能的诈骗。

“在一个攻击越来越多地由人工智能驱动的世界里,我们不能再把确定通信真实性的责任归咎于人类,”他们说。现在这就是人工智能的工作。”

高丽说,人工智能也被用来在网上发布虚假产品评论,但一些旨在查找人工智能生成内容的工具很难一致地识别该内容。

“这只是表明,随着质量的不断提高,它显然更难被发现。”

人工智能可以创建虚假的产品评论,诈骗者会利用这些评论来销售劣质产品。(美联社:珍妮·凯恩)

欺诈者可以利用人工智能创建恶意计算机代码并破解密码

软件工程师和爱好者已经使用人工智能来快速构建应用程序和网站等东西,但该技术也被用来创建可以侵入其他计算机的代码。

“我们在一些黑客论坛上看到,一些不太懂技术、不太熟悉编写恶意代码的人可能能够编写一些用于恶意目的的基本代码,”高丽说。黑客肯定正在改变。”

人工智能程序也被用来尝试破解密码,专家敦促人们加强密码并尽可能使用双因素身份验证。

一些专家还担心人工智能可能很快就会被添加到GoogleDocs和MicrosoftExcel等生产力应用程序中。他们担心,如果诈骗者或黑客掌握了大量被盗数据,人工智能工具可以用来快速提取有价值的信息。

人工智能可以创建恶意计算机代码或尝试破解人们的密码。(Unsplash:克里斯里德)

澳大利亚监管机构表示人工智能使诈骗“更难识别”

澳大利亚竞争与消费者委员会(ACCC)表示,虽然尚未收到任何专门针对使用人工智能的诈骗报告,但它意识到该技术“使人们更难识别诈骗”。

一位发言人表示:“随着新技术的出现,[ACCC]反欺诈网站不断识别出日益复杂的欺诈手段,并对人工智能走出去带来的风险保持警惕”。

“我们将继续与电信和数字平台行业的合作伙伴合作,寻找检测和防止欺诈活动的方法。

“人们应该继续对任何索取个人信息或金钱的请求保持谨慎,并在点击超链接时保持谨慎。”

随着澳大利亚公司努力防止欺诈,报告发现公众对监管的信心较低

毕马威咨询公司和澳大利亚信息产业协会三月份发布的一份报告发现,三分之二的澳大利亚人认为没有足够的法律或法规来保护他们免受不安全的人工智能的使用。

几家澳大利亚银行和电信公司表示,他们已经使用人工智能来检测系统中潜在的诈骗和网络威胁。

澳大利亚金融投诉局(AFCA)表示,每月收到约400起与欺诈相关的投诉,高于2021-22年的约340起投诉。

AFCA首席监察员兼首席执行官DavidLocke表示,虽然一些公司正在共同努力发现和防止诈骗,但还需要做更多的工作。

“欺诈的广度和复杂性意味着该行业需要愿意投资新技术并能够快速做出反应,”他说。

吉文博士表示,虽然人工智能可以在许多积极方面提供帮助,但没有人能免受基于人工智能的诈骗的攻击。

“我认为人们必须意识到这正在影响每个人,无论你是技术专家还是新手,”她说。

“尝试使用这些技术并了解它们的工作原理,阅读一些相关信息,与人们交谈并与您的孩子谈论它,这确实是健康和积极的。

“人们只需要尽可能挑剔,同时了解人工智能并不总是有风险或有问题。”

本站文章均由用户上传或转载而来,该文章内容本站无法检测是否存在侵权,如果本文存在侵权,请联系邮箱:2287318951@qq.com告知,本站在7天内对其进行处理。

相关推荐

发布评论