LilacCTF2026 Writeup 先知技术社区 8 hours 7 minutes ago 本届 LilacCTF 2026由XCTF联赛的合作单位哈尔滨工业大学 Lilac 战队组织,由赛宁网安提供技术支持。作为第十届XCTF国际联赛的分站赛,本次比赛将采用在线网络安全夺旗挑战赛的形式,面向全球开放
某地区行业OA系统审计 先知技术社区 8 hours 8 minutes ago 发现SessionFilter鉴权绕过、MyBatis拼接SQL注入、三处任意文件上传、两处任意文件读取及一处任意文件删除漏洞。
TheHackersLabs Ipeuveseis 专家级靶机全链路渗透实录 先知技术社区 8 hours 10 minutes ago ipeuveseis 是一台极具挑战性的 Expert 级靶机。它彻底抛弃了传统的 IPv4 网络协议栈,构建了一个完全基于 IPv6 链路本地地址与组播协议 的渗透场景。在该环境中,常规的自动化扫描工具将大面积失效,迫使渗透者必须回归网络协议底层,通过精确的地址计算与多层跳板(Pivoting)来实现最终的宿主机逃逸。
CVE-2026-22039:Kyverno 跨命名空间权限提升精解 先知技术社区 8 hours 11 minutes ago 漏洞描述Kyverno 是一个为云原生平台工程团队设计的策略引擎。1.16.3 和 1.15.3 之前的版本在命名空格的 Kyverno Policy apiCall 中设有关键授权边界绕过。解析后的“urlPath”通过Kyverno准入控制器ServiceAccount执行,且不强制请求仅限于策略命名空间。因此,任何有权限创建命名空间策略的认证用户都可以让 Kyverno 使用其准入控制器身份
Orval MSW Route Path Injection 漏洞挖掘 先知技术社区 8 hours 15 minutes ago Orval MSW Route Path Injection 漏洞挖掘
【提示词注入】AI 安全护栏场景下的绕过实战 先知技术社区 8 hours 17 minutes ago AI 安全护栏并非绝对安全,其本质仍是一个判别系统。在复杂真实场景中,攻击者可以通过构造特定输入或诱导输出,使模型行为偏离设计预期,从而形成潜在绕过风险。
车联网安全之渗透实战 —— CAN 总线及协议:能读懂车内语言 先知技术社区 8 hours 17 minutes ago 本文仅用于安全研究与防御加固目的。演示内容全部基于虚拟 CAN 总线与实验数据,帮助理解 CAN/ISO-TP/诊断通信与固件安全审计思路;不提供面向真实车辆的操控复现与攻击指令
AI自动化漏洞修复技术探索及实践 先知技术社区 8 hours 17 minutes ago 自动化漏洞检测工具(如模糊测试、静态分析工具)已广泛应用,但漏洞修复仍严重依赖安全专家人工经验,形成“检测快、修复慢”的效率失衡,大量漏洞长期未修复,成为安全防护体系的核心薄弱环节。本文提出一种基于AI Agent及Workflow实现漏洞根源修复的端到端自动化技术,突破传统修复方案瓶颈。
LLM Agent 时代的自动化攻防实践与风险总结 先知技术社区 8 hours 19 minutes ago 这种变化并不只发生在防守侧。对蓝队来说,LLM 可以用来加速安全运营,做分析、做响应、做辅助决策。但站在红队视角,尤其是渗透测试场景,大模型同样展现出了极强的破坏力。从信息收集到漏洞利用,从脚本生成到攻击路径规划,很多原本需要经验积累的工作,正在被模型快速接管。
Crypto CTF 2024 Honey:HNP-2H的连分数技巧与Kannan Embedding 先知技术社区 8 hours 19 minutes ago 本文以Crypto CTF 2024 Honey题目为例,详细讲解HNP-2H(Hidden Number Problem with Two Holes)的完整解法。介绍了HNP问题的数学背景和连分数理论基础,通过四步解题流程(消元、连分数逼近、Kannan Embedding构造、候选提取验证)展示如何将两个小未知量的耦合问题降维为一元secret加小误差的标准HNP形式,最后用LLL算法求解。
AI Agent:从工具劫持到 RCE 先知技术社区 8 hours 20 minutes ago 2026 年,AI Agent(智能体)的自主决策能力正成为内网权限控制的新黑洞。本文深入剖析了 Agent 核心架构 ReAct 中的逻辑缺陷,揭示了 LLM 作为“混淆代理”如何被自然语言指令劫持。文章重点展示了针对 PythonREPLTool 的攻击路径,通过本地复现演示了从 Prompt 注入到获取 Root 权限反弹 Shell 的完整 RCE 过程。同时,本文还探讨了多智能体(Mul
CVE-2026-25130:CAI AI框架命令注入漏洞精解 先知技术社区 8 hours 22 minutes ago 漏洞描述CAI 是一个人工智能安全的框架。在包括0.5.10版本及之前的版本中,CAI 框架的函数工具中包含多个参数注入漏洞。用户控制的输入通过“subprocess”直接传递给shell命令。Popen()' 带有 'shell=True',允许攻击者在主机系统上执行任意命令漏洞影响评分:9.7版本:<=0.5.10漏洞分析攻击者创建一个看似正常的网络安全博客页面,将恶意指令隐藏在HTM
CVE-2026-1470:n8n 原型链沙箱逃逸RCE漏洞详细分析 先知技术社区 8 hours 33 minutes ago 漏洞来源漏洞描述n8n 的工作流表达式求值系统存在严重的远程代码执行 (RCE) 漏洞。已认证用户在工作流配置期间提供的表达式可能会在与底层运行时隔离不足的执行上下文中进行求值。已认证的攻击者可以利用此漏洞,以 n8n 进程的权限执行任意代码。成功利用此漏洞可能导致受影响实例完全被攻陷,包括未经授权访问敏感数据、修改工作流以及执行系统级操作。漏洞分析漏洞入口点在packages/cli/src/s
一篇文章带你了解Agent Skills安全:从威胁建模到纵深防御 先知技术社区 8 hours 35 minutes ago Agent Skills作为连接大语言模型与现实世界的桥梁,正在重塑人机交互范式。其可插拔、可组合、可执行的特性赋予了Agent强大的能力,但也创造了前所未有的攻击面。本文系统性地分析了Agent Skills面临的三重脆弱性:执行边界模糊、输入输出不可预测、数据流复杂性,并从提示注入、代码注入、SSRF、供应链投毒等多个维度剖析了攻击向量,并原创性提出Skills安全风险评估框架概念,提供了可审
大模型幻觉背后的真相 先知技术社区 9 hours 10 minutes ago 大模型的出现确实改变了我们获取信息的方式,无论是写代码还是日常办公,这些模型展现出的推理能力让人惊艳。但随着使用场景越来越广,大家发现了一个非常头疼的问题,那就是模型经常会一本正经地胡说八道。在技术圈,我们把这种现象称为幻觉。简单来说,就是模型生成的内容听起来逻辑通顺、语气笃定,但实际上内容却是凭空捏造的。