Everything you care about in one place

Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.

Get Feeder

paper.seebug.org

paper - Last paper

Get the latest updates from paper - Last paper directly as they happen.

Follow now 531 followers

Latest posts

Last updated 9 days ago

Attack Upgraded: Disclosure of DarkHotel Organization's Latest RPC Attack Components

9 days ago

Author:Knownsec 404 Advanced Threat Intelligence team 中文版:https://paper.seebug.org/3314 1.1 Background Organization Introduction The...

攻击再升级,DarkHotel 组织最新 RPC 攻击组件披露

9 days ago

作者:知道创宇404高级威胁情报团队 English version:https://paper.seebug.org/3315 1.1 背景 组织介绍 DarkHotel组织于2014年被国外安全厂商披露,据悉最早可追溯到2010年。该组织因针对入住高档酒店的商贸高管和国家政要而得名,攻击目标范围涉及中国、朝鲜、日本、缅甸、印度以及少数欧洲国家,被认为是具有朝鲜半岛政府背景的APT组织。近...

作为攻击面的输出约束:利用结构化生成绕过 LLM 安全机制

9 days ago

作者:Shuoming Zhang, Jiacheng Zhao, Ruiyuan Xu, Xiaobing Feng, Huimin Cui 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2503.24191v1...

多语言和多口音音频大型语言模型的越狱攻击

12 days ago

作者:Jaechul Roh, Virat Shejwalkar, Amir Houmansadr 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2504.01094v1 1 引言 最近部署的大型音频语言模型(LALMs)在处理和理解音频输入方面取得了显著进展,增强了诸如自动语音识别(ASR)、语音问答(SQA)和情感检测等任务的效果。这些模型将复...

JBFuzz:使用模糊测试高效破解大型语言模型

19 days ago

作者:Vasudev Gohil 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2503.08990v1 摘要 大型语言模型(LLMs)作为语言理解和决策工具,展现出巨大的潜力,并已渗透到我们日常生活的各个方面。然而,其广泛可用性也带来了新的风险,例如通过一种称为“越狱”(jailbreaking)的攻击生成有害、不道德或冒犯性的内容。尽管 L...

信任受到攻击:针对 Android 恶意软件检测中机器学习的标签伪造攻击

26 days ago

作者:Tianwei Lan, Luca Demetrio, Farid Nait-Abdesselam, Yufei Han, Simone Aonzo 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2503.11841v1...

从0开始学习卷积神经网络(三)—— 进阶实例学习

27 days ago

作者:Hcamael@知道创宇404实验室 日期:2025年2月25日 在本系列的上一篇文章中,我们学习了如何训练一个识别数字图片的神经网络,在本篇文章中将会在此基础上学习一些进阶知识。 1. 引入非线性算法 在上一篇文章中,我们的神经网络使用的是线性算法,现在我们在此基础上转化为非线性算法,相关代码如下所示: # 定义 CNN 模型 class numCNN(nn.Module)...

Tit-for-Tat:通过对抗防御保护大型视觉语言模型免受越狱攻击

about 1 month ago

作者:Shuyang Hao, Yiwei Wang, Bryan Hooi等 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2503.11619v1 摘要 部署大型视觉语言模型(LVLMs)带来了一个独特的漏洞:容易通过视觉输入遭受恶意攻击。然而,现有的防御方法存在两个关键限制:(1)它们仅专注于文本防御,未能直接解决攻击起源的视觉领域的威胁;(2...

从0开始学习卷积神经网络(二)—— 实例学习

about 1 month ago

作者:Hcamael@知道创宇404实验室 日期:2025年2月19日 在本系列的上一篇文章中分享了卷积神经网络的基础知识,在完全了解1+1=2的基础知识后,本篇文章可以进行2*2=4进阶的学习。将会通过分析一个实例来进行讲解。 1. 简单的图片识别卷积神经网络 1.1 数据集 我们来建立一个简单的图片识别卷积神经网络,使用MNIST数据集进行训练。 MNIST(修改后的美国国家标准与技...

警惕仿冒 DeepSeek 安装包投递 WannaCry 勒索软件

about 1 month ago

作者:启明星辰集团 原文链接:https://mp.weixin.qq.com/s/hFAZvRyhwZldcB4fTN7NZQ 2025年,随着DeepSeek-R1的发布,迅速引发大模型本地化部署浪潮。前所未有的关注度也吸勒索软件团伙也紧跟热点,搭建钓鱼网站,伪装成合法的AI软件下载平台,诱导用户安装捆绑勒索软件的仿冒软件,从而对受害主机上的文件进行加密,以胁迫受害者支付赎金。 技术分析...

从0开始学习卷积神经网络(一)—— 1+1=2

about 1 month ago

作者:Hcamael@知道创宇404实验室 日期:2025年2月14日 本系列文章将分享我在学习卷积神经网络时的心得和体会,不会涉及复杂的数学公式,而是用简单易懂的语言来解释卷积神经网络。当然,如果对相关的数学公式有深入了解的话,对学习这部分知识会很有帮助。 1. 卷积计算 首先,我们简单介绍一下卷积。卷积的相关公式如下: (f * g)(n) = \sum_{m=-\infty}^...

机器学习的逻辑回归模型

about 1 month ago

.katex img { display: block position: absolute; width: 100%; height: inherit; }...