Aggregator
网络安全信息与动态周报2025年第31期(7月28日-8月3日)
RedSeal launches RedSeal One to simplify exposure management across hybrid environments
RedSeal unveiled RedSeal One, an AI-enabled exposure management platform designed to help organizations reduce risk, streamline operations, and strengthen resilience across hybrid environments. RedSeal One combines the company’s four foundational capabilities—hybrid environment modeling, attack path analysis, business-contextual risk prioritization, and continuous compliance—into a single, streamlined platform. Enabled by agentic AI, the platform continuously models the full hybrid digital environment and delivers actionable insights with the context teams need to reduce risk, validate defenses, and take … More →
The post RedSeal launches RedSeal One to simplify exposure management across hybrid environments appeared first on Help Net Security.
CERT-UA Warns of HTA-Delivered C# Malware Attacks Using Court Summons Lures
CVE-2025-7770 | Tigo Energy Cloud Connect Advanced up to 4.0.1 prng seed (icsa-25-217-02)
CVE-2025-7769 | Tigo Energy Cloud Connect Advanced up to 4.0.1 /cgi-bin/mobile_api DEVICE_PING command injection (icsa-25-217-02)
CVE-2025-7768 | Tigo Energy Cloud Connect Advanced up to 4.0.1 hard-coded credentials (icsa-25-217-02)
Белые хакеры «уронили» 70% компаний — за сутки и без усилий
CVE-2025-7376 | Mitsubishi Electric GENESIS64/MC Works64/GENESIS 11.00 shortcut (icsa-25-217-01)
大型语言模型 (LLM) 安全风险、案例与防御策略
这是 ChaMD5 安全团队 AI 组的第一篇关于大语言模型(LLM)的安全研究报告,尽管团队在 AI 安全领域已经有了一定的积累, 但由于是初次撰写报告, 我们深知在专业性与严谨性方面可能存在着诸多不足。真诚地希望各位读者老师能够不吝赐教,对报告中的任何问题提出宝贵的意见与建议,帮助我们不断改进与提升。
- 引言
- LLM 安全格局:机遇与风险并存
- 剖析核心风险:OWASP LLM Top 10 (2025 版) 详解
- 真实世界的威胁:LLM 与供应链安全案例研究 4.1. 案例研究:数据投毒 - PoisonGPT 实验 4.2. 案例研究:软件供应链攻击 - PyTorch 'torchtriton' 事件 4.3. 启示与影响
- 安全构建:LLM 开发与防御框架及工具 5.1. 开发编排框架:LangChain 5.2. 防御工具:Rebuff AI 5.3. 防御工具:Garak 5.4. 其他相关工具 5.5. LLM 安全工具比较
- 建议与未来展望
- 附录 7.1. 关键术语解释 (Glossary of Key Terms) 7.2. OWASP Top 10 for LLM Applications (2025 版) 完整列表 7.3 参考引用
Dell ControlVault漏洞(Revault)技术研究报告:固件安全威胁的演变与启示
OpenAI 自 GPT-2 以来首次发布开放权重模型
大模型安全风险治理与防护
大模型企业应用十大常见安全风险 01 样本投毒(数据污染) 02 恶意利用(Prompt注入攻击) 03 代码辅助工具数据泄露(第三方代码辅助工具) 04 第三方代码依赖风险(开源模型/库污染) 05 自动化Agent权限滥用 06 自建模型平台暴露面过大 07 训练数据隐私泄露 08 模型推理劫持(对抗样本攻击) 09 AI伦理与偏见放大 10 开源模型滥用(深度伪造与辅助犯罪)