Aggregator
大模型攻击与传统攻击的进化图谱(二)
6 minutes 36 seconds ago
针对大模型的攻击并非总是直接破坏其内部结构或窃取数据,一种更为普遍且隐蔽的威胁来自于对其核心功能的滥用。攻击者可能并不试图“攻破”模型本身,而是将其强大的生成和理解能力作为工具,用于执行大规模的恶意或非预期活动。这种滥用直接利用了模型按设计提供的服务,但其目的却与良性应用背道而驰
AI提示词注入攻防战:从论文挖掘到越狱实战的漏洞发现全解析
6 minutes 39 seconds ago
AI提示词越狱-emoji注入
从进程终结到内核级防护:深度解析Windows进程保护机制与对抗技术
11 minutes 15 seconds ago
Windows 内核级进程保护:拦截管理员权限taskkill /f的实现与原理
2025年网络安全技能竞赛“观安杯”管理运维赛 WEB/PWN wp
11 minutes 26 seconds ago
2025年网络安全技能竞赛“观安杯”管理运维赛 WEB/PWN wp
反序列化打内存马知一二
11 minutes 57 seconds ago
“知其然,知其所以然”的学会反序列化打内存马
记一次完整的net代码审计
15 minutes 51 seconds ago
环境准备:代码是一堆dll文件,批量反编译:反编译完成后,就开始代码审计。鉴权分析: API 权限控制Web API 部分动作采用 “请求头 token 校验 + 服务鉴权” 机制(如 APPController 的大部分 API):仅当 Authorize 鉴权通过后,才允许执行后续业务逻辑;若鉴权失败,则直接返回错误字符串,权限控制逻辑相对规范。MVC Controller 权限风险MVC C
如何获取主流大模型的系统提示词
17 minutes 23 seconds ago
本文将列举一些获取市面上主流大模型系统提示词的方法,一些受限于大模型本身是不公开的所以故打码。
大模型安全攻防实践 越狱攻击方法与思路分享
20 minutes 4 seconds ago
本文基于我参与阿里巴巴举办的 AI安全全球挑战赛——攻防对抗双向赛的实际经历进行整理与总结。本次比赛聚焦大模型(LLM)的安全攻防,涵盖了高强度越狱攻击与模型安全加固策略两个方向。比赛过程中,我在多个测试案例中尝试对主办方部署的大模型进行“越狱”——即通过特定的输入构造与引导,绕过模型预设的安全限制,使其输出原本受限的内容。最终在初赛累计得分突破1.79万分获得第五名,并在复赛防御环节凭借针对复杂
CVE-2025-52520: Apache Tomcat: DoS via integer overflow in multipart file upload分析
20 minutes 20 seconds ago
7月份tomcat官方陆陆续续公开了几个漏洞,其中之一是CVE-2025-52520,这个漏洞虽然顶级是低危,但是细致一看还是有点意思,所以也花了点时间看了下。
阿里云ai安全-全球攻防赛事文本攻击与防御机制研究
20 minutes 44 seconds ago
本人此次赛事初赛排名第四,复赛排名第四,对此次大赛有着一些感想与大家分享。
大模型安全对齐从0到1分析
23 minutes 17 seconds ago
对于文本生成类的大模型,类似如 GPT 等目前已经取得了革命性进展,可以生成各种各样的内容,不得不插一句,很难想象之前没有 GPT 的安全是怎么学的,目前是没有 GPT,可能很多问题自己不去询问一番都很难理解清楚
但是 GPT 这种序列到序列的模型,本质学习语言的结构和语义规律,通过解析输入序列,然后生成输出序列,而其中的过程基于一个可控性的角度,因为你永远无法预测我们会输入什么,可控性其实是较差
大模型安全之数据投毒(Data Poisoning)
25 minutes 55 seconds ago
大模型安全之数据投毒(Data Poisoning)
先知社区双十一投稿活动|月满中秋,奖励加倍!
26 minutes 47 seconds ago
先知社区双十一投稿活动|月满中秋,奖励加倍!
我的2025年企业src挖洞之路分享
26 minutes 51 seconds ago
主要分享一下今年挖企业src的一些过程、案例
记一次实战因网络架构引发的源码审计
27 minutes 29 seconds ago
记一次实战因网络架构引发的源码审计
进程创建流程时间线中引入的思考
29 minutes 4 seconds ago
进程创建流程时间线中,通过AppVerifier和ShimEnginer接口来起到一种隐蔽的起进程形式的注入。
从 0 开始的基于 LangChain Agent 的安全赋能
30 minutes 27 seconds ago
从 0 开始的基于 LangChain Agent 的安全赋能
AI模型安全加固策略 防御方案实战复盘
30 minutes 46 seconds ago
基于个人赛实战经验,本文总结了大模型越狱攻防中的关键防御策略,分享三套高分方案的设计与优化思路,并最终在全球攻防挑战赛复赛中斩获第二名,为 LLM 安全防护提供可借鉴的技术参考
大模型改击与传统攻击的进化图增(一)
31 minutes 14 seconds ago
虽然大模型安全攻击的目标是模型的“认知”过程(理解、推理、生成),而传统攻击更多针对的是程序的执行流程、数据存储和网络通信,但许多底层的攻击哲学和策略是相通的。它们都涉及理解系统的工作原理,寻找其薄弱环节,并通过精心设计的输入或交互来操纵系统,使其偏离预期轨道,服务于攻击者的目的