Everything you care about in one place

Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.

Get Feeder

paper.seebug.org

paper - Last paper

Get the latest updates from paper - Last paper directly as they happen.

Follow now 527 followers

Latest posts

Last updated 4 days ago

Tit-for-Tat:通过对抗防御保护大型视觉语言模型免受越狱攻击

5 days ago

作者:Shuyang Hao, Yiwei Wang, Bryan Hooi等 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/pdf/2503.11619v1 摘要 部署大型视觉语言模型(LVLMs)带来了一个独特的漏洞:容易通过视觉输入遭受恶意攻击。然而,现有的防御方法存在两个关键限制:(1)它们仅专注于文本防御,未能直接解决攻击起源的视觉领域的威胁;(2...

从0开始学习卷积神经网络(二)—— 实例学习

7 days ago

作者:Hcamael@知道创宇404实验室 日期:2025年2月19日 在本系列的上一篇文章中分享了卷积神经网络的基础知识,在完全了解1+1=2的基础知识后,本篇文章可以进行2*2=4进阶的学习。将会通过分析一个实例来进行讲解。 1. 简单的图片识别卷积神经网络 1.1 数据集 我们来建立一个简单的图片识别卷积神经网络,使用MNIST数据集进行训练。 MNIST(修改后的美国国家标准与技...

警惕仿冒 DeepSeek 安装包投递 WannaCry 勒索软件

7 days ago

作者:启明星辰集团 原文链接:https://mp.weixin.qq.com/s/hFAZvRyhwZldcB4fTN7NZQ 2025年,随着DeepSeek-R1的发布,迅速引发大模型本地化部署浪潮。前所未有的关注度也吸勒索软件团伙也紧跟热点,搭建钓鱼网站,伪装成合法的AI软件下载平台,诱导用户安装捆绑勒索软件的仿冒软件,从而对受害主机上的文件进行加密,以胁迫受害者支付赎金。 技术分析...

从0开始学习卷积神经网络(一)—— 1+1=2

10 days ago

作者:Hcamael@知道创宇404实验室 日期:2025年2月14日 本系列文章将分享我在学习卷积神经网络时的心得和体会,不会涉及复杂的数学公式,而是用简单易懂的语言来解释卷积神经网络。当然,如果对相关的数学公式有深入了解的话,对学习这部分知识会很有帮助。 1. 卷积计算 首先,我们简单介绍一下卷积。卷积的相关公式如下: (f * g)(n) = \sum_{m=-\infty}^...

机器学习的逻辑回归模型

11 days ago

.katex img { display: block position: absolute; width: 100%; height: inherit; }...

「深蓝洞察」2024年度最憋屈的漏洞披露

11 days ago

作者:DARKNAVY 原文链接:https://mp.weixin.qq.com/s/Y8-wT88VnLeMUiD-HssPyw 在网络安全领域,漏洞披露一直被视为保护用户的重要环节,但在现实中,这一过程却充满了争议和矛盾。究竟什么才算得上“负责任的披露”?当厂商在信息公开和补丁发布上占据主导地位,而安全研究者则需要耗费大量精力进行沟通与博弈,这一模式是否还能真正实现保护用户安全的初衷?...

「深蓝洞察」2024年度最“安全”的防线

12 days ago

作者:DARKNAVY 原文链接:https://mp.weixin.qq.com/s/LaM5iz_EKbAK_lkaAcBshw 在攻防对抗日益激烈的2024年,安全软件一直被视为企业安全防线的重要基石。然而,这些安全软件本身也可能存在漏洞,甚至被攻击者利用作为入侵的跳板来对用户造成危害。多年来,因为安全软件而导致的事故不禁让人产生一个疑问——安全软件真的可信吗? 安全软件被滥用为攻击工...

「深蓝洞察」2024年度最难以阻挡的攻防趋势

13 days ago

作者:DARKNAVY 原文链接:https://mp.weixin.qq.com/s/lUA03YjBiCAatcJh-bUHEQ 近年来,漏洞攻防不断演进。从多年前仅需一个栈溢出就能攻破系统,到如今需要运用各种精妙的手法来突破系统的层层防御。“盾”与“矛”始终处于动态对抗:每当新的防御措施出现,新的攻击手段随之而来。防御机制的升级促使攻击者寻找新的突破口,而攻击方法的创新又推动着防御技术...

机器学习的线性回归模型

17 days ago

.katex img { display: block position: absolute; width: 100%; height: inherit; }...

Llama 的悖论:深入探索 Llama.cpp 的堆迷宫,从堆溢出到远程代码执行

18 days ago

作者:Patrick Peng 译者:知道???宇404实验室翻译组 原文链接:https://retr0.blog/blog/llama-rpc-rce 我一直对 Llama.cpp 情有独钟,它堪称我在人工智能与机器学习研究领域孜孜以求的“终极目标”。不仅如此,能在如此复杂且成熟的人工智能项目中挖掘出堆栈/堆溢出导致的远程代码执行漏洞,听起来就格外酷炫。当然,我内心深处渴望在人工智能项目中...

Emoji攻击:增强针对Judge LLMs检测的越狱攻击

19 days ago

作者:Zhipeng Wei, Yuqi Liu, N. Benjamin Erichson 译者:知道创宇404实验室翻译组 原文链接:https://arxiv.org/html/2411.01077v2 摘要 越狱(Jailbreaking)技术可以欺骗大型语言模型(LLMs),使其生成受限制的输出,从而构成严重威胁。其中一种防御方法是使用另一个 LLM...

模型序列化攻击

20 days ago

译者:知道创宇404实验室翻译组 原文链接:https://github.com/protectai/modelscan/blob/main/docs/model_serialization_attacks.md 机器学习(ML)模型是基于机器学习的应用程序的核心资产。安全地存储和检索模型对成功至关重要。根据使用的机器学习库,模型可以以多种常见格式保存。流行的选择包括:Pickle、HDF5...