Tenable Research 指出 DeepSeek R1 可能被用于生成恶意软件
HackerNews 编译,转载请注明出处: Tenable Research 指出,DeepSeek R1 存在潜在安全风险,这一生成式人工智能模型可能被操控,用于生成恶意软件。 和许多生成式人工智能(GenAI)模型一样,DeepSeek R1 设计有防止滥用的安全机制。不过,Tenable Research 发现,这些防御机制可以被绕过,这引发了人们对人工智能在促进网络犯罪方面所起作用的担忧。研究人员警告说,虽然 DeepSeek 生成的恶意软件需要进一步完善才能完全有效,但它降低了那些几乎没有编码技能的人开发恶意软件的门槛。 Tenable 安全团队进行的实验旨在确定 DeepSeek R1 是否能够创建两种恶意软件:键盘记录器和勒索软件样本。最初,DeepSeek R1 拒绝生成这些软件,符合其编程限制。然而,Tenable 的研究人员使用了简单的越狱技术,使他们能够绕过这些限制。 Tenable 的员工研究工程师 Nick Miles 解释说:“最初,DeepSeek 拒绝了我们生成键盘记录器的请求。但通过将请求重新表述为‘教育练习’,并应用常见的越狱方法,我们迅速克服了其限制。” 在绕过人工智能的安全机制后,DeepSeek R1 生成了一个键盘记录器,可以加密日志并将其秘密存储在设备上,以及一个能够加密文件的勒索软件可执行文件。研究结果表明,即使是非专家也可能利用像 DeepSeek 这样的人工智能技术来开发恶意软件。 生成式人工智能提升网络犯罪活动能力的潜力是一个重大问题。虽然 DeepSeek 的代码需要手动完善才能完全发挥作用,但该人工智能模型可以提供基础代码并建议相关技术,加速有抱负的网络犯罪分子的学习过程。 Miles 强调了负责任地开发人工智能的重要性:“Tenable 的研究突显了负责任地开发人工智能和加强防护措施以防止滥用的紧迫需求。随着人工智能能力的进化,组织、政策制定者和安全专家必须共同努力,确保这些强大的工具不会成为网络犯罪的帮凶。” Tenable Research 的研究结果突显了保护生成式人工智能模型免遭滥用的持续挑战。随着人工智能技术的进步,绕过其安全机制的方法也在不断发展,这突显了持续改进安全措施的必要性。确保人工智能仍然是创新工具而非剥削工具,需要开发者、研究人员和政策制定者之间的持续合作。 消息来源:Security Brief; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文