组件安全:AI检测与漏洞利用路径预测
《组件安全:AI检测与漏洞利用路径预测》聚焦于解决现代软件依赖复杂、风险不可见的痛点。报告提出从“黑暗地图”到“点亮地图”的思路转变,通过自动化依赖分析、多源漏洞情报聚合与AI智能验证,构建了一套组件风险识别系统。该系统利用Gemini等大模型进行风险分类与场景构建,并生成CodeQL规则实现精准扫描。实战演示了从漏洞收集到风险场景落地的全流程,实现了对第三方组件风险的可见、可测、可防,为软件供应链安全提供了智能化的新思路。
《组件安全:AI检测与漏洞利用路径预测》聚焦于解决现代软件依赖复杂、风险不可见的痛点。报告提出从“黑暗地图”到“点亮地图”的思路转变,通过自动化依赖分析、多源漏洞情报聚合与AI智能验证,构建了一套组件风险识别系统。该系统利用Gemini等大模型进行风险分类与场景构建,并生成CodeQL规则实现精准扫描。实战演示了从漏洞收集到风险场景落地的全流程,实现了对第三方组件风险的可见、可测、可防,为软件供应链安全提供了智能化的新思路。
《智体赋能:基于大模型Agent的自动化渗透测试框架设计与实践》提出了一个以多智能体(Multi-Agent)为核心的自动化渗透测试新范式。该框架通过任务编排、资产收集、漏洞测试等20余种原子能力智能体,结合RAG、ReAct等机制,实现了从目标侦察到漏洞利用的全流程AI自主决策与执行。报告展示了如何集成外部工具、构建领域知识库,并通过实战案例验证了其在漏洞挖掘、权限提升等方面的有效性。未来将进一步探索垂直领域小模型与强化学习,推动智能红队技术向更高阶的自主化、智能化演进。
《后渗透新维度:利用Chrome插件后门实现持久化与凭据窃听》揭示了Chrome插件在攻防对抗中被武器化的巨大风险。报告指出,恶意插件可依托Chrome可信进程,以低感知方式实现静默安装与持久化,并利用广泛权限窃取Cookie、监听网络请求、记录键盘输入等。通过分析插件运行原理、武器化安装手法(如HMAC绕过)及实战功能(如Cookie监听、请求窃听),展现了其作为隐蔽后门的强大能力。该研究为防御方敲响警钟,亟需加强对浏览器扩展生态的安全检测与管控。
《红队视角下的海外SRC猎场:战略、战术与突破》聚焦于如何以红队思维在竞争激烈的海外漏洞赏金市场中取得突破。报告提出从“打点式”漏洞挖掘转向“战役式”系统作战,通过情报驱动精准定位高价值目标。针对传统自动化工具的瓶颈,引入以AI Agent为核心的“人机协同”战术框架(MCP),并结合实战案例,展示了从资产发现到SSO控制、RCE获取的完整攻击链。报告强调,AI是效率倍增器,但人类专家仍是价值创造的核心,未来将向垂直安全大模型演进,实现更智能的自主攻防。
《低空防线:无人机通信协议模糊测试与系统安全研究新突破》聚焦于多旋翼无人机的通信协议安全与系统漏洞挖掘,提出了一套基于模糊测试的无人机安全研究框架。 剖析了无人机的软硬件架构,涵盖飞行控制系统、通信模块、传感器及操作系统(如RTOS与ROS),并揭示了多个关键安全漏洞,包括飞行姿态欺骗、BMS电池状态欺骗、GPS定位欺骗等,攻击者可借此误导地面控制站,导致无人机失控、迫降甚至坠毁。 在通信协议层面,重点分析了MAVLink协议的结构与漏洞,结合实际数据包案例,指出其在消息验证、身份鉴别等方面的安全隐患,并展示了告警欺骗、RTSP窃听等攻击手法。 针对上述问题,我们研究提出了一套系统的模糊测试方法,包括种子选择与变异策略设计,涵盖基础字段变异、结构破坏、遗传算法优化等高级技术,构建了高效的测试用例库,有效挖掘协议层未知漏洞。最终通过“终止飞行”“GPS欺骗”等实际漏洞演示,验证了该方法的有效性,为提升无人机系统安全性、构建低空防御体系提供了重要技术支撑。
《车联网漏洞挖掘方法及典型案例剖析》由格物实验室马良主讲,系统梳理智能网联汽车从钥匙、IVI、T-Box到充电桩的全链路攻击面:内存安全、命令注入、固件提取、API越权、无线中继等“老问题”在车内重现,2024-2025 Pwn2Own Automotive共暴露98个0-day,奖金222万美元,IVI与充电设施成重灾区。报告给出“以攻促防”实战套路——硬件拆焊、固件逆向、CAN重放、蓝牙嗅探、数字钥匙中继、云端APIfuzzing,并总结竞赛驱动的工具链与测试流程,助力主机厂在UN R155/R156合规背景下建立覆盖设计、生产、运营、OTA全生命周期的安全管理体系。
背景介绍 Background Introduction 对抗路径分析 Adversarial Path Analysis 落地实践 Practical Implementation 总结展望 Summary and Outlook
这份演示文稿(PPT)的主题是“从被动响应到主动防御:基于对抗路径的数字化安全转型实践”。内容围绕如何从攻击者视角出发,通过分析和预测攻击路径,构建主动防御体系。
以下是该PPT的主要内容总结:
1. 背景介绍这部分从攻击者视角出发,分析其攻击目的、手法和路径。 * 攻击目的:主要分为获取利益(如资金窃取、数据贩卖、勒索)、商业竞争(如窃取机密、损害声誉)、蓄意破坏(如员工报复、APT攻击) 和其它(如炫技)。 * 攻击手法:包括漏洞利用、恶意软件(如后门木马、勒索病毒)、社会工程学(如钓鱼邮件)、DDoS攻击 和供应链打击 等。 * 攻击路径(动态组合):攻击通常分三阶段动态组合各种手法: 1. 外部突破:选择暴露面最大、防御最弱的入口(如钓鱼邮件、漏洞利用)。 2. 内部横移:寻找最短的权限继承路径(如命令执行、提权)。 3. 目标达成:避开检测,实现最大化收益(如数据窃取、勒索软件)。 * 防御范式转变:核心思想是从“被动响应”转变为“主动截杀”。这要求在攻击发生前就预判路径,锁定关键节点,并部署检测、阻断和欺骗措施。
3. 落地实践这部分探讨了如何将对抗路径分析应用于实际防御。 * 攻击成功公式:文稿将攻击成功拆解为“数据资产缺陷被利用”+“手法绕过防护体系”。 * 两大应对方法: 1. 消除资产缺陷:通过“资产全生命周期管理”,在需求、研发、测试、发布、运维、回收等各个环节植入安全措施。 2. 阻断手法绕过:构建“纵深防御体系”,包括边界防御(WAF/IPS)、流量监测(NDR)、终端防护(EDR/HIDS) 和主动欺骗(蜜罐) 等。 * 核心技术:“对抗路径生成”。通过叠加“攻防图谱(技术视角)” 和“业务资产链路(业务视角)”,描绘出基于资产链路的对抗路径,从而实现对上游节点的精准隔离和对下游节点的重点防护。 * 能力验证:通过勒索演练等方式,验证边界、主机、内网等各环节的防护有效性。
4. 案例分析:“银狐”攻击链处置文稿以“银狐”攻击为例,展示了在不同阶段的对抗策略: * 投递阶段:攻击方通过IM群发、网站挂马、钓鱼邮件等方式投递恶意文件。防御方通过攻击面收敛,阻止恶意文件落盘。 * 落盘+控制阶段:防御方通过阻断恶意文件执行、隔离恶意进程、监测并阻断反连(C2连接) 来对抗。 * 扩散阶段:通过横向监测 发现威胁,并立即对受害终端进行隔离,阻断其横向移动。
5. 总结与展望《大模型应用落地安全风险和防护实践》由火山引擎郑炎亭主讲,聚焦后DeepSeek时代的真实攻防:提示词越狱、RAG数据窃取、Log4j 诱导RCE、算力DDoS、幻觉误导五大高危场景,并给出从接入层到训练层的全栈防护方案——大模型应用防火墙+密文RAG+熔断限流+幻觉检测。报告强调,AI已进生产核心,安全即业务连续性,防护目标正从合规转向核心资产保险。
火山引擎大模型应用防火墙产品负责人 郑炎亭在《大模型应用落地的安全风险与防护实践》的分享中,探讨大模型应用在各行各业落地过程中面临的安全风险及相应的防护实践。
郑炎亭观察到,过去,不同行业在引入新技术时注重快速验证和部署,安全往往被视为次要考虑因素。随着 DeepSeek 等工具的普及,AI 技术的成本降低、门槛变低,越来越多的企业开始重视 AI 应用的安全性,特别是在生产环境暴露面增大后带来的潜在威胁。
当前的安全挑战不仅包括传统的 DDoS 攻击、薅羊毛滥用等,还涉及大模型特有的风险,如提示词注入、模型幻觉等问题。以提示词注入为例,通过简单的拼接即可实现对模型的操控,使得攻击成本大幅降低,这对企业的数据安全构成严重威胁。
为应对这些挑战,郑炎亭提出一些实践思路:一是对提示词过滤与监控,对输入输出实施严格过滤,减少恶意利用的可能性。二是对运行环境做安全保障,使用加密技术和机密计算来保护敏感信息处理过程中的安全性。三是模型安全性测评,测试模型识别并拒绝执行恶意代码或生成有害内容。
郑炎亭谈到大模型的幻觉问题确实不易解决。大模型幻觉分为事实性幻觉和忠实性幻觉。对于不同的幻觉应设计不同的应对方案,郑炎亭介绍几种在推理端处理幻觉问题的方法,强调在推理端更具性价比且更可控。
《安全领域大模型构建范式与实践》由腾讯安全科恩实验室吴石主讲,提出“高质量语料 + 科学评测”双轮驱动范式:自建SecCorpus对20 B token清洗去噪,使160 M小模型即达通用1.8 B效果;发布SecBench平台,5万道题覆盖证书、问答与攻防场景,为行业首套安全大模型评测基线。实践上,以混元+BinaryAI亿级函数向量RAG为核心,打造Security-X研判助手,输入IOC即可自动生成多智能体协同的综合报告,日调用破亿。报告总结:大模型落地需“数据-评测-场景”闭环,科恩已把AI能力嵌入腾讯云、iOA、电脑管家全线产品,实现精准威胁识别与智能运营。
自 2018 年起,科恩实验室开始对 AI+ 安全的研究,致力探索如何提升安全产品的智能化水平,落地相关产品,腾讯内部包含 QQ、微信在内的多个重要产品均在使用科恩实验室 AI+ 安全的能力。
当前在利用大模型解决实际安全问题上仍面临一些挑战,主要原因在于大模型本身并不产生新的知识,对于安全领域的专业知识掌握有限,导致其输出的实际效用不高。对此,吴石分享了科恩实验室在这方面所开展的工作:一是建立安全语料库,通过从多源收集数据并利用关键词过滤和分列器进行初步筛选,经过一系列数据清洗步骤,最终完成数据质量评测,目前此安全语料已部分开源。二是开发针对大模型安全能力的评测体系,填补行业空白,并部分开源评测工具,显著提升行业标准。
吴石介绍腾讯内部如何落地大模型+安全:首先通过优化 prompt 提高提问质量,解决大部分基础问题;其次,利用外挂的知识库和数据库增强大模型的能力,实现快速反应;还有,开发 Agent 来提升处理复杂任务的能力。其中,科恩实验室自研 BinaryAI 可以模糊匹配开源库信息识别恶意代码,现日调用量超 1 亿次。基于RAG的 Security-X 助手广泛应用于 URL 处理、威胁情报检索等场景。总的来说,科恩实验室具备三大核心能力:优秀的安全攻防技术、全面的基础安全大数据以及自安全算法,这些为大模型的应用提供坚实基础,并推动通用大模型与小模型的有效结合。
吴石指出,大模型作为网络安全领域的重要技术力量,已显著提升了威胁检测效率与安全防护能力,尤其在复杂场景中展现出独特价值。然而,当前技术范式下仍需理性看待其局限性:大模型在处理低频威胁、对抗性样本防御及实时决策场景中仍存在性能瓶颈。他强调,安全工作的核心仍需回归对抗本质——通过构建高保真威胁情报体系与攻击成本动态评估机制,迫使攻击者在技术、资源与时间维度付出更高代价。
《安全大模型发展路径洞察与实践》由360集团CTO潘剑锋主讲,提出“快思考-深度思考-慢思考”三级跃迁模型:先用统计性快思考解决告警降噪、钓鱼识别等高频任务,再借CoE多专家架构与Agentic Workflow实现复杂威胁狩猎的“慢思考”。依托360百亿级终端与网络攻防语料,CCoE模型在52个恶意家族检测中全面超越GPT-4;并通过“思想钢印”记忆机制与蒙特卡洛树搜索,持续沉淀专家经验,驱动终端、流量、云、浏览器全线产品升级。报告最终呼吁以安全大模型重塑攻防思维模式,迈向“AI即安全服务”新时代。
潘剑锋先是讨论大模型的理解能力,引入“快慢思考”概念来评估当前大模型的能力。他表示目前大模型的价值是很好地模拟人脑的“快思考”,即大模型通过海量数据训练,做文字符号层面的统计处理,从数据中找出统计性规律,在概括的意义上掌握学习样本所反映的隐含知识,并以此为基础生成内容。而“慢思考”需要对事物具有本质性理解,需借助事实性知识,通过多步推理、反思,是“深思熟虑”的结晶。针对慢思考任务的场景中,当前可编排专家经验,整合安全大模型、知识库、工具库的能力,实现半自主的推理 Agent。
当前,国内大模型赋能安全产品主要采用两种不同层次的方式:一是直接使用通用大模型的能力实现安全应用;二是应用安全垂直大模型。这两种方式之间的区别就像“一个博学的人拿着医科全书”与“主任医师”,前者虽然能够查到专业知识,但是不能够贯通运用;后者是具有丰富的临床实践经验。安全垂直大模型能够将专业的安全数据真正训练进入模型中。
潘剑锋分享如何基于以上理论进行落地实践,包括安全语料生产、模型分区训练和慢思考实现方式。高质量的安全语料被视为行业的护城河,360 首创的 CoE 技术架构允许不同的安全专家分区训练各自的模型,有效减少多任务冲突、过拟合等问题,保证训练效果同时降低资源消耗。
潘剑锋目前基于推理时计算扩展的方法,在外延方面进行创新,还尝试做本质性理解的相关工作。通过团队的持续探索,有望进一步提升大模型在安全领域的效能与适用范围,寻找新的发展范式。
《AI智能体:从思考规划到落地执行的安全赋能之旅》由安恒信息王欣主讲,系统描绘了AI Agent 从“会聊天”到“会做事”的跃迁路径:通过恒脑大模型+300+安全插件的编排,形成可视化报告、代码审计、钓鱼研判、数据分类分级等10大“硅基员工”,把14天等保报告缩短至2人天、告警研判效率提升93%。报告以Manus全球Agent商用化趋势为例,强调“记忆-规划-工具-反思”闭环让安全运营从人力密集转向智能托管;并预判2025年Agent将成为安全产业标配,重塑攻防协同、RPA流程、自适应架构与合规审核,实现知识经验平台化、一线专家超级个体化。
王欣详细介绍安恒信息在 AI 智能体的布局和发展历程。他表示,智能体与网络安全体系的融合将是未来的发展趋势,而非孤立存在。通过引入智能中台,将数据、知识、情报及安全产品整合为 Agent 的一部分,实现任务的调度与执行,来应对各类安全场景。预计在未来 3-5 年内,这种模式将成为面向客户侧的主要发展方向,提升整体安全效能和响应速度。
接着,王欣分享 AI 智能体给行业带来的变革:第一,Agent 的引入标志着安全运营从量变到质变的过程,技术发展需要一定的周期;第二,智能体的出现使得业务专家从专才转变为超级个体,通过减少辅助工程和岗位,让专家的知识经验成为核心,未来逐步出现一人当岗、一人多能的情况,并利用编排系统将个人经验沉淀为平台经验,以完成更多任务。
最后,王欣回顾了过去一年对 AI 智能体在安全领域的八个预测,例如 Agent 将成为产业标配,AI native 工具将成为 Agent 的手和脚;ASA 架构将在 AI 智能体影响下升级等等,他指出,部分预测可能未能完全符合实际发展轨迹,并提出今年将重新审视相关趋势,依托更严谨的分析框架与数据支撑体系,结合对技术演进的深度洞察,探索实现类似 AI 级精准预测的可能性。
《AI赋能的未来安全》由深信服张振礼主讲,提出“安全AGI”四阶段演进路线:从单点ChatBot到智能体闭环,最终让AI承担95%安全运营。报告详解深信服800张A100、400+硕博打造的千亿级安全大模型体系,结合RAG、微调、智能体编排,把钓鱼邮件、Web攻击、数据泄露、UEBA异常等场景做成开箱即用的“安全GPT”。通过2024HW实战验证,实现100%告警自动研判、工单自动下发、漏洞整改闭环,真正把大模型从“聊天玩具”变成“值守同事”。面向未来,倡议用AI原生应用替代传统工具,让安全团队从重复沟通中解放,聚焦高阶决策。
张振礼先是分享对 AI 赋能安全的理解:第一,安全本来就碎片化,不能每个安全 GPT 场景单独的模型分开部署,要统一规划,通过良好的架构设计实现各类大模型算力的统一调度和适配;第二,基础大模型持续进化,安全大模型需要具备快速融合、集成、吸收优秀基础模型的知识和推理能力,智能体的元年开启,持续为安全场景带来体验和效果的改进;第三,安全团队在 AI 时代要具备 RAG、微调等技能;四是开放性,AI 时代,安全产品需具备适应性以匹配不同行业的具体场景需求。
张振礼表示,网络安全是一个对检出率、准确率有极高追求的 toB 领域,将任何的开源基座大模型落地于安全领域,都绝非简单的接入、缝合,而是一个复杂的系统工程。比如 DeepSeek 在安全垂直领域商业落地,必须具有安全垂域大模型的实践数据、对基座模型的安全场景驯化经验、面向安全业务的 AI 系统工程,才能强化优势,应对挑战。我们需经过指令微调、预训练及强化学习三个阶段,并结合专业经验和安全语料进行优化,才能适应特定安全场景需求。张振礼将 DeepSeek、GPT-4.5 等通用大模型比作安全“本科生”,通过安全指令微调和安全细分领域优化,这些模型成长为“硕士”,经过系统化的构建与实际应用验证,它们将成为“博士”或有经验的安全专家。
接着,张振礼分享深信服 AI 安全的落地实践。如团队开发基于 AI 的安全助手,不仅改善安全管理,还优化安全规范及日常沟通,实现从被动响应到主动审计的转变,并推动全面自动化。此外,团队还提供 AI 安全培训体系,以增强大家的安全能力和安全技能。
谈及未来,张振礼表示,从长远来看,随着多智能体协同技术的发展,安全行业将实现高度自动化,形成人监督机器等的新模式,释放更多人力资源去处理更有价值的任务。
《AI系统的安全风险和挑战》由CertiK AI安全监管与治理专家李康撰写,聚焦大模型时代“系统级”威胁。报告先以欧盟AI法案风险金字塔为框架,剖析近期字节跳动实习生投毒、DeepSeek数据库泄露、ShadowRay等真实事件,指出AI Agent浪潮下传统漏洞(RCE、供应链投毒、对抗样本)与新型风险(沙箱逃逸、物理世界攻击)并存。通过GPT-Academic、Invoke AI等沙箱绕过案例,演示攻击者如何利用模型加载、文件解析、任务执行链实现远程控制;并以Tesla FSD闯红灯攻击为例,警示物理AI Agent的安全边界。最后呼吁在“AI平权”趋势下,安全监管必须超越传统网络安全假设,建立覆盖模型、数据、运行环境、物理交互的全栈治理体系。
Certik 首席安全官 李康在《AI 系统的安全风险和挑战》的主题演讲中,谈到目前 AI 安全讨论通常集中在抽象层面(如 AI 对人类社会的威胁)和算法层面,但忽略系统安全层面的重要性和紧迫性,如今,AI 智能体的普及带来新的安全挑战,这些智能体带有执行环境,允许代码执行,这为攻击者提供机会。李康举例如何利用传统安全手段攻击 AI 智能体,通过简单的手段如命令注入、越权访问等,可轻易地对 AI 智能体进行攻击。
“攻击者并不一定针对AI的偏见或利用Prompt和幻觉进行攻击智能体,而是寻找有价值的目标,并用最简单的方式达成目的,当前AI的安全监管和检测尚未充分考虑这一点,未来需关注具体事件的爆发以应对这些潜在威胁。”李康提醒说。
随后,李康进一步分析物理世界中的 AI Agent 同样面临安全风险,阐述 AI 系统在现实世界中的安全隐患。李康表示,AI Agent 为安全研究带来机会与责任,既让我们重新审视和应用过去的安全手段进行防护,同时也要求我们在发现攻击路径和方法上进行创新,尤其是在面对真实场景时,不依赖传统的直接互动方式。
李康提醒道,AI 的普及不仅带来技术平权,也引入新的安全风险,希望安全从业者获得更多话语权和重视,尤其是在监管层面应更加关注底层安全问题。最后,李康呼吁更多人参与到 AI 安全的研究和实践中来。
《XCon×HG议题:数字人安全攻防白皮书》系统梳理了数字人直播、AI伴侣到元宇宙应用的完整生态架构,揭示提示词注入、TTS语音伪装、Deepfake身份伪造、供应链投毒等十大攻击面及真实案例;并给出覆盖模型、数据、内容、应用到基础设施的五层防御体系,为企业在爆发式增长中守住品牌、资金与合规红线。
《Prompt Hacks:终极指南》系统梳理了生成式 AI 面临的提示注入、越狱等攻击手法,并给出10类威胁模型与对应防御方案。文件揭示了 LLM 无法区分系统指令与用户输入的根本原因,展示攻击者如何通过角色扮演、故事编造、编码混淆、令牌注入等方式窃取数据或输出有害内容;同时提供红队演练、语义防火墙、实时观测、合规审计等落地策略,帮助企业守护品牌、资金与运营安全。NeuralTrust 的 AI Gateway、自动化红队、可观测平台三大工具贯穿始终,为零信任架构下的 AI 部署提供一站式解决方案。
传统安全运营正面临巨大的挑战,过度依赖专家团队,人力资源和知识有限等问题尤为突出。碳基生命的生理极限决定了在未来网络安全攻防战场,单纯依靠传统安全工具和方法是无法赢得战争的,必须借助当前最前沿的人工智能技术。
本议题将重点分享多个安全运营场景中使用大模型技术改进和增强现有的安全运营工作机制,全面提升安全运营的水准,包括:如果充分发挥智能体、大模型生成能力、编码能力实现几十倍甚至上百倍的运营效率提升。
当然,大模型的应用并非没有挑战,尤其是“幻觉”问题——即大模型在某些情况下可能会做出错误的推理和判断,从而导致误报或漏报。本议题在讨论大模型应用安全运营场景时,还将介绍作者所在团队过去的一些技术尝试,介绍如何克服“幻觉”问题,降低AI出错的概率,让大模型给出更加精准和可靠的决策结果。
通过对这些技术细节的深入分析,旨在帮助与会者理解大模型在安全运营中的实际应用价值,并展望其未来的发展方向。
报告以“AI是新质生产力”为主线,指出算力、模型、数据、应用正形成指数级放大效应,同时带来幻觉、伦理、攻防失控三大安全新图景。中国提出“全球共治、分级韧性”治理思路,将IT→DT→AI驱动的安全演进划分为三个阶段,倡导用AI提升自身安全、用韧性框架保障AI发展,并发布联合国首个人工智能全球决议,为强国建设与民族复兴守住底线、抓住机遇。
邬江兴院士指出,数字经济时代数据成为关键生产要素,但“存储程序控制”的先天基因缺陷使网络空间安全威胁愈演愈烈。为此提出中国原创的“内生安全+拟态防御”范式:通过动态异构冗余(DHR)构造,把未知漏洞扰动转化为可控概率问题,实现设计安全、默认安全、开箱即用。六年全球众测证明,采用内生安全架构的产品均未攻破,已纳入11项通信行业标准,成为数字生态底层驱动范式转型的“钢筋骨架”。