生成式人工智能技术滥用事件频发三六零AI安全护航智能时代发展

2024-05-14 14 0

生成式人工智能技术滥用事件频发360AI安全护航智能时代发展

近来,随着生成式人工智能技术的快速发展,利用相关技术进行诈骗、诽谤等违法案件愈发频繁,备受社会关注。5月22日,包头警方发布的一起利用人工智能进行电信诈骗的案件成为热门话题。诈骗者利用AI技术伪装自己,10分钟内受害人被骗430万元。作为全球领先的数字安全公司,360(601360.SH,以下简称“360”)负责打造安全大脑——科技部依托数字化发起发起的国家新一代人工智能开放创新平台国家层面的安全能力,用人工智能破解安全是一个时代难题。

生成式人工智能技术滥用的兴起是由于深度合成和机器学习的快速发展。诈骗者可以利用这些技术来训练能够模拟人类语言和表情的AI,并在换脸后创造出“数字人”的嘴形。,表情和小动作几乎完美无缺。“变声”使用算法模型根据现有语音样本生成近似声音。OpenAI首席执行官萨姆·奥尔特曼(SamAltman)对大型模型可能被用于大规模虚假信息以及人们受到控制表示担忧。

5月24日,中国互联网协会发文称,面对利用人工智能技术的新诈骗行为,公众必须提高警惕,加强防范。早在2017年7月,国务院印发《新一代人工智能发展规划》,提出了2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,其中特别提到“到2025年,率先出台人工智能法律法规、道德标准和政策体系,形成人工智能安全评估和管控能力。”

作为全球领先的数字安全公司,360深耕人工智能安全领域多年,拥有框架安全、模型安全、生成式AI安全等。截至目前,360已发现200多个常见机器漏洞学习和供应链框架,例如Tensorflow、Caffe和Pytorch。其中,已向GoogleTensorflow提交98个漏洞,其中24个风险严重漏洞位居全球第一,影响超过40亿台终端设备,并被国家网信办评选为“人工智能企业典型应用案例”。

2019年,“360安全大脑”被科技部评选为“国家新一代人工智能开放创新平台”,旨在推动中国人工智能安全生态圈建设。目前,以GPT为代表的大型模型正在席卷全球,360发现大型模型既有传统AI模型面临的安全风险,也有大型模型特有的新安全风险,如模型盗窃、快速注入风险等。为此,360打造了全球首个大型模型安全风险评估系统“AISE”,为大型模型提供全局安全保障。

2023年6月13日,“360智能大脑”大型模型应用大会将在北京召开。届时将会发布更多与人工智能安全相关的研究或产品解决方案,为人工智能的健康发展奠定安全基础。

本文来自金融行业资讯

本站文章均由用户上传或转载而来,该文章内容本站无法检测是否存在侵权,如果本文存在侵权,请联系邮箱:2287318951@qq.com告知,本站在7天内对其进行处理。

发布评论