​奇安信:AI深度伪造欺诈激增30倍

凤龙宽
导读 【TechWeb】奇安信集团发布《2024人工智能安全报告》,指出人工智能技术的恶意使用将在政治、网络、物理和军事安全等方面构成严重威胁。
【TechWeb】奇安信集团发布《2024人工智能安全报告》,指出人工智能技术的恶意使用将在政治、网络、物理和军事安全等方面构成严重威胁。《报告》认为,“AI是一种通用技术,通用就意味着既可以用来做好事,也可以被用来干坏事”。具有巨大潜力的AI技术同时带来两大主要挑战:一是放大现有威胁,另一个是引入新型威胁。奇安信预计,未来十年,人工智能技术的恶意使用将快速增长,将在政治安全、网络安全、物理安全和军事安全等方面构成严重威胁。
报告数据显示,2023年基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件数量增长了1000%;奇安信威胁情报中心监测发现,已有多个有国家背景的APT组织利用AI实施了十余起网络攻击事件。各类基于AI的新型攻击种类与手段不断出现,甚至出现泛滥,包括深度伪造(Deepfake)、黑产大语言模型、恶意AI机器人、自动化攻击等,在全球造成了严重危害。
同时,《报告》深入研究了基于AI的深度伪造(Deepfake)、黑产大语言模型基础设施、利用AI的自动化攻击、AI武器化、LLM自身安全风险、恶意软件、钓鱼邮件、虚假内容和活动生成、硬件传感器安全等12种重要威胁,对其技术原理、危害情况、真实案例等进行了深入的剖析,旨在让业界更全面的认识到AI普及带来的两大主要挑战:一方面放大了现有威胁,比如钓鱼邮件、恶意软件和社会工程学等;另一方面是引入了新型威胁,如AI自动化攻击、AI深度伪造等。
《报告》认为,面对日益严峻的AI网络攻击和武器化威胁,AI技术将推动安全领域发生范式变革。全行业需启动人工智能网络防御推进计划,以应对新一代AI技术和大语言模型的挑战。这将对地缘政治竞争和国家安全产生深远影响,各国正在竞相加强在人工智能领域的竞争,以获得未来的战略优势。

标签: AI深度,伪造欺诈

版权声明:本文由用户上传,如有侵权请联系删除!