应对量子威胁,美国发布首套对抗量子计算攻击的算法
应对量子威胁,美国发布首套对抗量子计算攻击的算法美国国家标准与技术研究院(NIST)发布新闻稿,宣布了首套专门用于防范量子计算机攻击的算法。全世界的互联网流量、金融系统以及公共和私人通信基础设施都依赖于算法,这些算法可以防止未经授权的用户读取仅供少数人使用的私人信息。现有算法都是针对传统计算机而设计,无法应对...
华为发布全球DDoS攻击态势分析报告
报告显示,2023年DDoS攻击呈现四大显著特点,第一,超大规模攻击异常活跃,T级攻击频繁出现;第二,攻击频次继续呈增长趋势,2023年同步增加1.6倍;第三,大流量攻击爬升速度再创新高,秒级达到T级攻击;第四,攻击复杂度持续提升,攻击威胁加剧。从典型攻击角度来看,2023年扫段攻击频次快速增长,为躲避防御,低速扫段攻击成为主流...
美国AI专家最新研究:大模型“后门攻击”
以前,在机器学习模型的输入中添加微小扰动可以使算法失效,加入的扰动就是攻击样本。对抗性研究虽然攻击手段的提升上升到新的层面。随着对抗性研究的进展,对大模型的后门攻击可能变得更为复杂,因为防御措施的提高可能导致攻击者采用更巧妙的方法来规避防御。
黑产大数据:2023年互联网黑灰产研究年度报告
从百万级黑灰产业链规模、大幅提升的攻击资源量级可见,2023年是黑产攻防对抗空前激烈的一年。推陈出新的攻击资源和技术成为黑产攻击的“保护色”。因难以监测黑产攻击行为和溯源潜在风险,不少企业遭受严重损失,成为业务安全建设中亟需攻破的难点。威胁猎人发布《2023年互联网黑灰产研究年度报告》,针对2023年黑灰产业...
美国NIST发布有关“对抗性机器学习领域威胁和防御”报告
2024年1月,美国国家标准与技术研究院(NIST)发布了一份关于人工智能(AI)安全性的报告《对抗性机器学习-攻击和缓解的分类和术语》,重点关注如何防范对抗性机器学习(AdversarialMachineLearning,AML)中的攻击。报告重点关注两大类人工智能系统(预测式和生成式)在训练阶段和部署阶段面临的主要攻击类型,并构建了一个AML...
今日arXiv最热大模型论文:北京大学最新综述:视觉大模型中的漏洞与...
下表详细分类了当前针对LVLMs的对抗攻击方法,展示了在攻击设置、攻击模态(视觉或文本)、攻击类型(有目标或无目标)、受害模型及其目标方面的区别(www.e993.com)2024年10月26日。1.白盒攻击白盒攻击利用对模型架构、参数和梯度的完全访问。通常使用基于梯度的工具,如PGD、APGD和CW,在图像和文本输入中生成和优化噪声,从而研究受攻击LVLMs的鲁棒性...
对抗机器学习(AML)攻击没有万能解决方案
日前,美国国家技术与标准研究院(NIST)发布了一份关于AML的指南,记录了针对人工智能(AI)系统的各类攻击,并对AI开发人员及用户发出警告,目前此类系统并没有什么万无一失的防护方法。该机构鼓励AI行业积极探索更好的防御措施。这份《对抗机器学习:攻击与缓解的分类及术语》的报告,涵盖了预测式AI和生成式AI。
AI赋能谋制胜:美军持续推进人工智能电子战运用研究
01美军持续推进人工智能电子战运用研究,以保持在未来战争中的技术优势。02美国陆军研发了“先进动态频谱侦察”系统,利用人工智能技术有效检测并规避敌方的电子攻击。03美国空军将基于人工智能和机器学习的新“认知”能力引入F-15电子战系统,称为鹰式主/被动警戒生存系统。
低成本算法,大幅提升视觉分类鲁棒性,悉尼大学华人团队发布全新...
新智元导读EdgeNet可以处理从干净的自然图像或嘈杂的对抗性图像中提取的边缘,产生鲁棒的特征,具有轻量级、即插即用等特点,能够无缝集成到现有的预训练深度网络中,训练成本低。在深度神经网络时代,深度神经网络(DNNs)在视觉分类任务中展现出了卓越的准确性。然而,它们对额外噪声,即对抗性攻击,表现出了脆弱性。先前...
美网络安全威胁能力分析报告,揭示七种威胁
美网络安全威胁能力分析报告,揭示七种威胁美国,作为世界唯一超级大国,自2011年将“网络威慑”正式引入网络安全战略以来,始终将网络威慑作为其追求安全利益、扩大竞争优势、重塑国际霸权的重要手段。从相关报道和曝光可以看到,这对各国发展和稳定造成了重大影响,比如针对特定国家政府制造的大规模网络舆情来实施政治攻击,...