如何开通自己的网站,用visual做网站,做ps的赚钱的网站有哪些,科技公司官网首页简介
本文揭示了大模型推理过程中的可用性攻击威胁#xff0c;介绍了LoopLLM框架——通过诱导模型陷入重复生成的低熵循环#xff0c;使其无法自主终止#xff0c;从而耗尽计算资源。实验证明#xff0c;LoopLLM在攻击成功率(90%)和跨模型迁移能力上显著优…简介本文揭示了大模型推理过程中的可用性攻击威胁介绍了LoopLLM框架——通过诱导模型陷入重复生成的低熵循环使其无法自主终止从而耗尽计算资源。实验证明LoopLLM在攻击成功率(90%)和跨模型迁移能力上显著优于传统方法。文章详细阐述了攻击原理、实现方法及现实威胁场景并提出了防御思路强调大模型安全需同时关注完整性、机密性和可用性。引言大模型推理的“隐形能耗炸弹”当谈论大模型安全时注意力往往集中在内容安全比如 Jailbreak、虚假信息或数据安全比如隐私泄露、模型窃取上。但很少有人关注一个更“底层”的威胁——可用性攻击通过恶意提示迫使大模型生成超长输出耗尽计算资源导致服务延迟甚至崩溃。 快速中译中看下图就Get到本文描述的关键大模型的推理能耗有多夸张研究显示推理阶段的能耗占大模型全生命周期的90%Desislavov et al., 2023。而推理能耗的核心驱动因素不是输入长度而是输出长度输出长度增加10倍能耗增长近10倍而输入长度对能耗几乎无影响。这意味着只要能让模型生成足够长的输出就能有效放大能耗和延迟。现有能耗攻击的思路很直接延迟EOS token序列结束标记的生成让模型“忘记”终止。但这种方法有两个致命缺陷效果有限随着输出变长模型还是会“忍不住”生成EOS导致提前终止迁移性差依赖白盒梯度优化过拟合源模型换个模型就失效。有没有办法让模型主动陷入“生成循环”直到耗尽最大token限制这就是今天要讲的——LoopLLM一个通过“重复生成”触发大模型低熵循环的能耗攻击框架。核心洞察重复生成是大模型的“自回归死穴”大模型的自回归机制Autoregressive是其生成能力的基础但也是天生的“漏洞”一旦模型开始生成重复内容后续token的预测熵会急剧下降即模型越来越确定下一个token还是重复的最终陷入“低熵循环”无法自主终止。做了两个关键实验验证这一点输入重复的影响给模型输入“once upon a time”重复0、1、3、5次记录生成token的熵。结果显示重复次数≥3时熵从1.0骤降到0.05以下图1左模型开始“鹦鹉学舌”指令对齐模型的特殊性指令对齐模型比如Llama3-8B-Instruct会过滤输入中的重复内容但如果输出中出现重复模型会立刻陷入循环图1右。比如输入中加重复段没用但输出中加“*”重复3次熵直接降到0.1以下。为什么重复生成能突破EOS限制传统方法靠“压EOS概率”但模型的EOS生成逻辑是“全局的”——输出越长EOS的触发概率越高。而重复生成则是重构输出结构通过低熵循环让模型“专注”于重复token完全忽略EOS的存在。比如模型生成“”重复100次后下一个token的概率90%是“”EOS的概率几乎为0。LoopLLM框架从“诱导重复”到“跨模型迁移”的双轮驱动LoopLLM的目标很明确用尽可能简单的方法让模型生成重复内容直到最大长度。框架包含两个核心组件重复诱导提示优化解决效果问题和token对齐的集成优化解决迁移性问题。一、重复诱导提示优化让模型“主动”重复要让模型重复首先得给它“重复的种子”——对抗后缀Adversarial Suffix。比如原输入是“描述气候变化的原因”给它加一个重复的后缀“%#%#%#”形成对抗提示“描述气候变化的原因。%#%#%#”。1.初始化重复后缀的设计用循环段Cyclic Segment构建初始后缀。循环段是一个短token序列比如长度1的“”或长度5的“%#”然后重复多次形成后缀抽象成一个数学公式其中c是循环段长度L是后缀长度比如30。这样的后缀能给模型“重复的暗示”。2.循环损失让模型“爱上”重复要让模型生成循环段内的token设计了循环损失Cycle Loss优化对抗性后缀以鼓励模型复现循环片段将生成过程导向低熵循环通过注入对抗性后缀让模型陷入 “生成死循环”以此暴露其资源消耗漏洞。循环片段设计构造一个简短的重复标记序列例如 “请继续分析此外还要注意……请继续分析此外还要注意……”将其作为循环片段包含标记 (t_1,t_2,\dots,t_c)。对抗性后缀构建把这个循环片段嵌入到对抗性后缀中输入模型时后缀会引导模型生成过程。循环损失优化利用1.1中公式 (\mathcal{L}_{\text{cycle}}) 来优化对抗性后缀的生成。在训练或推理阶段该损失会持续推动模型在每个输出位置提高循环片段内标记的预测概率。例如当模型生成到第 i 个位置时损失会鼓励它以更高的概率选择 “请”“继续”“分析” 等循环标记。攻击效果经过优化的对抗性后缀输入模型后模型会持续生成 “请继续分析此外还要注意……” 的循环内容无法停止从而陷入低熵生成循环。这会导致模型不断消耗计算资源如 GPU 显存、算力甚至因持续生成而触发硬件过载或服务中断以此实现 “能耗攻击” 的目的。仍然可以抽象成一种数学公式理科生的最爱通过公式来统一阐述一种算法思维其中N是生成长度Pitj是第i位生成循环段第j个token的概率损失的目标是最大化循环段token的总概率让模型每一步都倾向于生成循环段内的token。比如循环段是“*%#”c5损失会鼓励模型在每一步都生成这5个token中的一个最终形成重复循环。3.梯度-based token搜索解决离散token的优化问题提示是离散的token序列无法直接用梯度下降优化。用one-hot向量梯度采样的方法解决计算梯度对后缀中的每个token用one-hot向量表示计算其对循环损失的梯度候选采样对每个token选梯度最小的K个token比如K64作为候选选择最优从候选中随机选B个组合比如B128计算每个组合的损失选损失最小的作为新后缀。代码示例循环损失的PyTorch实现def compute_cycle_loss(model, tokenizer, adv_prompt, cyclic_tokens, max_gen_len1024): inputs tokenizer(adv_prompt, return_tensorspt).to(model.device) # 生成输出禁用EOS outputs model.generate( **inputs, max_new_tokensmax_gen_len, do_sampleFalse, eos_token_idNone# 关键不让模型终止 ) gen_tokens outputs[0][inputs.input_ids.shape[1]:] # 去除输入部分 loss 0.0for i in range(len(gen_tokens)): # 获取当前位置的logits logits model(input_idsgen_tokens[:i1].unsqueeze(0)).logits[:, -1, :] # 计算循环段token的概率和 cyclic_probs torch.softmax(logits, dim-1)[:, cyclic_tokens].sum(dim-1) # 累加负log概率越小越好 loss -torch.log(cyclic_probs 1e-8) return loss.item() / len(gen_tokens) # 平均损失二、token对齐的集成优化让攻击“跨模型有效”传统方法的迁移性差是因为梯度优化过拟合源模型。LoopLLM用多模型集成解决选择同tokenizer的surrogate模型比如用Llama3-3B和Llama3-8B都用Llama3 tokenizer保证token的索引映射一致聚合梯度对每个后缀token计算所有surrogate模型的梯度之和集成选择选对所有surrogate模型损失最小的候选后缀为什么要token对齐不同模型的tokenizer不同比如Llama3和Qwen2的token索引不一样梯度无法直接相加。选同tokenizer的模型才能保证“梯度聚合”的有效性。技术代码示例def align_cyclic_tokens(cyclic_text, source_tokenizer, target_tokenizer): source_tokens source_tokenizer.tokenize(cyclic_text) target_tokens [] current_pos 0 for token in source_tokens: sub_tokens target_tokenizer.tokenize(token) target_tokens.extend(sub_tokens) current_pos len(sub_tokens) return target_tokenizer.convert_tokens_to_ids(target_tokens)实验验证碾压基线的效果与迁移能力在12个开源模型Llama2-7B、Llama3-8B等和2个商业模型DeepSeek-V3、Gemini 2.5 Flash上做了实验结果用“四个字”形容全面碾压。 没兴趣看本章节细节的看下图就OK了1.白盒效果ASR超90%基线仅20%ASRAttack Success Rate是“生成到最大长度的比例”。实验显示传统方法LLMEffiChecker的ASR仅20%左右LoopLLM-ttoken-level重复的ASR超90%LoopLLM-pphrase-level短语级重复也达70%-80%。比如Llama3-8B-InstructLoopLLM-t的平均生成长度是3892 token接近最大4096而LLMEffiChecker只有1486 token。2.迁移性集成优化提升40%用Llama3-3B和Llama3-8B作为surrogate模型生成对抗提示攻击DeepSeek-V3黑盒。结果显示单模型优化的ASR是22%集成优化后达43%对Gemini 2.5 Flash集成优化的ASR从10%提升到37%现实威胁攻击场景LoopLLM的可怕之处在于极低的攻击成本和极高的破坏力以下是几个典型场景场景1开源模型的白盒DoS攻击攻击者拿到Llama3-8B-Instruct的权重用LoopLLM生成对抗提示“请解释量子计算的基本原理。%#%#*%#”。模型生成1024token的重复内容推理时间从5秒变成30秒能耗增加6倍。如果攻击者发起100次请求服务器会直接过载。场景2商业模型的黑盒迁移攻击攻击者用Llama3-3B和Llama3-8B作为surrogate模型生成对抗提示然后调用DeepSeek-V3的API。模型生成重复内容到最大长度2048token每个请求的token成本是正常请求的4倍。如果攻击者发起10次请求会消耗掉普通用户100次请求的token配额。场景3共享资源的“资源劫持”一个共享的大模型服务限制“每小时100次请求”但不限制token数。攻击者用LoopLLM生成2次请求每个请求生成1024token消耗掉服务80%的计算资源其他用户的请求会被“排队”10分钟以上。攻击与防御的持续对抗LoopLLM揭开了大模型可用性攻击的“冰山一角”但未来的攻击会更隐蔽、更智能语义重复攻击比如用“今天天气很好”→“今天天气不错”→“今天天气挺好”的语义重复替代字符重复更难被防御系统检测多模态扩展针对GPT-4V这样的视觉语言模型生成重复的图像描述比如“这是一只猫”→“这是一只小猫”→“这是一只可爱的小猫”导致推理能耗增加动态调整重复模式根据模型的反馈调整重复段比如模型开始生成非重复token就换一个循环段让防御系统无法“学习”攻击模式。结语大模型的能耗问题不是“技术细节”而是“安全问题”。LoopLLM证明只要抓住大模型的自回归漏洞就能用简单的方法引发严重的可用性危机。对于防御方来说需要从“被动挡EOS”转向“主动检测重复模式”比如实时监测生成token的熵或者用语义分析检测重复内容。但攻击与防御的博弈才刚刚开始——今天的防御方法可能就是明天攻击的“垫脚石”。大模型的安全不是“单维度的”完整性、机密性、可用性缺一不可。当你在关注“ jailbreak”时不要忘了——一个让模型“喋喋不休”的攻击可能比“泄露隐私”更致命。如何学习AI大模型我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。1.AI大模型学习路线图2.100套AI大模型商业化落地方案3.100集大模型视频教程4.200本大模型PDF书籍5.LLM面试题合集6.AI产品经理资源合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】