奇安信集团发布《2024人工智能安全报告》认为,人工智能技术的恶意使用将快速增长,在政治安全、网络安全、物理安全和军事安全等方面构成严重威胁。
报告指出,AI技术具有巨大潜力,但也带来两大主要挑战:一是放大现有威胁,另一个是引入新型威胁。
未来十年,人工智能技术的恶意使用将快速增长,将在政治安全、网络安全、物理安全和军事安全等方面构成严重威胁。
数据显示,基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件数量增长了1000%;已有多个有国家背景的APT组织利用AI实施了十余起网络攻击事件。
各类基于AI的新型攻击种类与手段不断出现,甚至出现泛滥,包括深度伪造、黑产大语言模型、恶意AI机器人、自动化攻击等,在全球造成了严重危害。
报告深入研究了基于AI的深度伪造、黑产大语言模型基础设施、利用AI的自动化攻击、AI武器化、LLM自身安全风险、恶意软件、钓鱼邮件、虚假内容和活动生成、硬件传感器安全等12种重要威胁。
面对日益严峻的安全威胁,《报告》认为,AI技术将会推动安全领域发生范式变革,全行业需启动人工智能网络防御推进计划。
新一代AI技术与大语言模型改变安全对抗格局,将会对地缘政治竞争和国家安全造成深远的影响,各国正在竞相加强在人工智能领域的竞争。
全行业需启动人工智能网络防御推进计划,包括利用防御人工智能对抗恶意人工智能,扭转“防御者困境”。