安全公告

当前位置:首页  网络安全  安全公告

关于llama.cpp远程代码执行漏洞(CVE-2026-34159)的预警提示

发布时间:2026-05-07浏览次数:10设置

一、漏洞详情

llama.cpp 是一款由GGML社区开发的高性能C/C++大语言模型推理引擎,支持LLaMAFalconMistral等数十种主流开源LLM的本地与分布式部署。

近日,监测到官方修复llama.cpp 远程代码执行漏洞(CVE-2026-34159),该漏洞源于RPC后端的deserialize_tensor()函数,在处理GRAPH_COMPUTE消息时,当tensorbuffer字段为0时会完全跳过所有边界和有效性验证,导致攻击者可直接控制result->data指针。攻击者可结合ALLOC_BUFFERBUFFER_GET_BASE消息实现指针泄露,绕过ASLR,最终通过构造 GRAPH_COMPUTE 消息实现任意内存读写,并通过函数指针劫持(如覆盖iface.clearsystem())达成远程代码执行。

建议受影响用户做好资产自查以及预防工作,以免遭受黑客攻击。

二、影响范围

llama.cpp < b8492

三、修复建议

官方已发布安全补丁,请及时更新至最新版本:

llama.cpp >= b8492


返回原图
/