Everything you care about in one place

Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.

Get Feeder

paper.seebug.org

paper - Last paper

Get the latest updates from paper - Last paper directly as they happen.

Follow now 544 followers

Latest posts

Last updated 3 days ago

第八届“强网”拟态防御国际精英挑战赛 - WIN!致敬mt 复现

3 days ago

作者:flyyy 前言 拟态比赛的时候时间过于匆忙,并没有很多时间看这道题目,因此赛后进行了复现,复现过程中需要感谢@zikh26师傅和神秘的@Nik Xe大哥的帮助。 为什么第二道iot还没复现,问就是c++还没逆完 漏洞分析 基本信息 从启动脚本发现其实只开了一个80端口,我们先启动看一下基本的信息,可以发现80端口由lighttpd监听,启动方式为/usr/sbin/light...

拯救未受污染的数据:针对检索增强生成(RAG)系统知识污染攻击的高效防御方法

3 days ago

作者:Minseok Kim, Hankook Lee, Hyungjoon Koo 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2511.01268v1 摘要 大型语言模型(LLMs)正重塑我们日常生活的诸多方面,使其作为基于网络的服务被广泛采用。尽管功能多样,大型语言模型仍面临显著挑战,例如生成幻觉内容以及无法获取最新信息。近年来,为解决此类...

SIRAJ:基于蒸馏结构化推理的 LLM 智能体多样化高效红队测试框架

5 days ago

作者:Kaiwen Zhou, Ahmed Elgohary,A S M Iftekhar, Amin Saied 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2510.26037v1 摘要...

MCPGuard:自动检测 MCP 服务器中的漏洞

10 days ago

作者:Bin Wang,Zexin Liu,Hao Yu,Ao Yang,Yenan Huang,Jing Guo,Huangsheng Cheng,Hui Li,Huiyu Wu 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2510.23673v1...

利用视觉令牌扩展多模态学习中的文本上下文

11 days ago

作者:Alex Jinpeng Wang, Linjie Li, Yiqi Lin, Min Li, Lijuan Wang, Mike...

网络化控制系统的安全性量化:综述

12 days ago

作者:Sribalaji C. Ananda, Anh Tung Nguyen, André M.H. Teixeira, Henrik Sandberg, Karl...

后量子密码学与量子安全:综述

13 days ago

作者:GAURAB CHHETRI, SHRIYANK SOMVANSHI等 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2510.10436 随着美国国家标准与技术研究院(NIST)敲定ML-KEM、ML-DSA和SLH-DSA标准,后量子密码学(PQC)正从评估阶段迈向部署阶段。本综述全面涵盖了该领域从基础理论到实践应用的完整版图。首先,我们构...

基于内容的攻击:自动化事实核查是一个人工智能安全问题

16 days ago

作者:Michael Schlichtkrull 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2510.11238 摘要 当人工智能代理检索外部文档并进行推理时,攻击者可能会操纵它们接收的数据以破坏其行为。先前的研究探讨了间接提示注入攻击,即攻击者注入恶意指令。我们认为,操纵代理并不需要注入指令——攻击者反而可以提供带有偏见、误导性或虚假的信息。我...

LAPRAD:大语言模型辅助的协议攻击发现方法

16 days ago

作者:R. Can Aygun, Yehuda Afek, Anat Bremler-Barr, Leonard Kleinrock 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2510.19264v1 摘要...

主动蜜罐防护系统:探测并确认多轮大型语言模型越狱攻击

18 days ago

作者:ChenYu Wu, Yi Wang, Yang Liao 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2510.15017v1 摘要 大型语言模型(LLMs)在多轮越狱攻击面前的脆弱性日益凸显。在这类攻击中,攻击者会通过迭代方式诱导模型产生有害行为,以此绕过单轮安全过滤器。现有防御手段主要依赖被动拒绝机制,这种机制要么难以抵御适应性攻击者...

张量逻辑:人工智能的语言

23 days ago

作者:Pedro Domingos 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2510.12269v3 摘要 人工智能领域的发展因缺乏具备所有必要功能的编程语言而受阻。PyTorch和TensorFlow等库虽能提供自动微分和高效的GPU实现功能,但它们只是Python语言的补充工具,而Python本身并非为人工智能设计。这些库对自动推理和知识...

模式增强型多轮越狱攻击:利用大型语言模型中的结构性漏洞

25 days ago

作者:Ragib Amin Nihal, Rui Wen等 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2510.08859v1 摘要 大型语言模型(LLMs)在多轮越狱攻击面前仍存在漏洞,这类攻击会利用对话上下文逐步绕过安全约束。它们通过不同的对话方式(如学术讨论、个人经历分享、假设场景构建)针对各类危害类别(如恶意软件生成、骚扰行为、欺诈活动...