Everything you care about in one place

Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.

Get Feeder

paper.seebug.org

paper - Last paper

Get the latest updates from paper - Last paper directly as they happen.

Follow now 533 followers

Latest posts

Last updated about 2 hours ago

利用通信攻击对基于 LLM 的多智能体系统进行渗透测试

about 2 hours ago

作者:Pengfei He, Yupin Lin, Shen Dong, Han Xu, Yue Xing, Hui Liu...

高效标记的提示注入攻击:通过自适应标记压缩引发LLM推理中断

2 days ago

作者:Yu Cui, Yujun Cai, Yiwei Wang 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2504.20493v1 摘要 尽管推理型大语言模型(LLMs)在各种任务中表现出色,但它们也存在显著的安全漏洞。最近的研究发现,DeepSeek-R1模型存在一种“思维停止”的漏洞,模型生成的推理标记(tokens)可能会强行中断推理过...

MCP 安全探讨系列(二)—— Cline 安全分析

17 days ago

作者:Hcamael@知道创宇404实验室 日期:2025年4月18日 1. Cline的实现原理 1.1 Cline的基础使用指南 Cline是Visual Studio Code的MCP插件,所以想要在VSCode上使用Cline,我们首先要安装该插件,安装完成后,在侧边栏可以看到Cline的图标,点击该图标,就能进入到Cline的界面中,如下图所示: 在使用前,需要根据自身情况对大模...

MCP 安全探讨系列(一)—— MCP 概述

18 days ago

作者:Hcamael@知道创宇404实验室 日期:2025年4月18日 1. 前言 近些年,人类在生成式人工智能的道路上一路狂奔,ChatGPT的横空出世、多模态模型的发展、Agent浪潮开启、DeepSeek的发布,让我们经历着AI发展史上一个又一个的群星闪耀时。当各家模型可以有九种方法查询天气时,模型上下文协议(MCP)却在以一种统一的姿态让模型自主构建理解本身的含义。给予模型一种通用的...

Attack Upgraded: Disclosure of DarkHotel Organization's Latest RPC Attack Components

28 days ago

Author:Knownsec 404 Advanced Threat Intelligence team 中文版:https://paper.seebug.org/3314 1.1 Background Organization Introduction The...

攻击再升级,DarkHotel 组织最新 RPC 攻击组件披露

28 days ago

作者:知道创宇404高级威胁情报团队 English version:https://paper.seebug.org/3315 1.1 背景 组织介绍 DarkHotel组织于2014年被国外安全厂商披露,据悉最早可追溯到2010年。该组织因针对入住高档酒店的商贸高管和国家政要而得名,攻击目标范围涉及中国、朝鲜、日本、缅甸、印度以及少数欧洲国家,被认为是具有朝鲜半岛政府背景的APT组织。近...

作为攻击面的输出约束:利用结构化生成绕过 LLM 安全机制

28 days ago

作者:Shuoming Zhang, Jiacheng Zhao, Ruiyuan Xu, Xiaobing Feng, Huimin Cui 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2503.24191v1...

多语言和多口音音频大型语言模型的越狱攻击

about 1 month ago

作者:Jaechul Roh, Virat Shejwalkar, Amir Houmansadr 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2504.01094v1 1 引言 最近部署的大型音频语言模型(LALMs)在处理和理解音频输入方面取得了显著进展,增强了诸如自动语音识别(ASR)、语音问答(SQA)和情感检测等任务的效果。这些模型将复...

JBFuzz:使用模糊测试高效破解大型语言模型

about 1 month ago

作者:Vasudev Gohil 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2503.08990v1 摘要 大型语言模型(LLMs)作为语言理解和决策工具,展现出巨大的潜力,并已渗透到我们日常生活的各个方面。然而,其广泛可用性也带来了新的风险,例如通过一种称为“越狱”(jailbreaking)的攻击生成有害、不道德或冒犯性的内容。尽管 L...

信任受到攻击:针对 Android 恶意软件检测中机器学习的标签伪造攻击

about 2 months ago

作者:Tianwei Lan, Luca Demetrio, Farid Nait-Abdesselam, Yufei Han, Simone Aonzo 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2503.11841v1...

从0开始学习卷积神经网络(三)—— 进阶实例学习

about 2 months ago

作者:Hcamael@知道创宇404实验室 日期:2025年2月25日 在本系列的上一篇文章中,我们学习了如何训练一个识别数字图片的神经网络,在本篇文章中将会在此基础上学习一些进阶知识。 1. 引入非线性算法 在上一篇文章中,我们的神经网络使用的是线性算法,现在我们在此基础上转化为非线性算法,相关代码如下所示: # 定义 CNN 模型 class numCNN(nn.Module)...

Tit-for-Tat:通过对抗防御保护大型视觉语言模型免受越狱攻击

about 2 months ago

作者:Shuyang Hao, Yiwei Wang, Bryan Hooi等 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2503.11619v1 摘要 部署大型视觉语言模型(LVLMs)带来了一个独特的漏洞:容易通过视觉输入遭受恶意攻击。然而,现有的防御方法存在两个关键限制:(1)它们仅专注于文本防御,未能直接解决攻击起源的视觉领域的威胁;(2...