一、漏洞概述
漏洞名称 | vLLM trust_remote_code绕过远程代码执行漏洞 |
CVE ID | CVE-2026-27893 |
漏洞类型 | RCE | 发现时间 | 2026-3-27 |
漏洞评分 | 8.8 | 漏洞等级 | 高危 |
攻击向量 | 网络 | 所需权限 | 无 |
利用难度 | 低 | 用户交互 | 需要 |
PoC/EXP | 未公开 | 在野利用 | 未发现 |
vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。其核心特性包括PagedAttention高效内存管理、并行化调度优化以及对多GPU、分布式环境的良好支持。vLLM兼容Hugging Face接口,便于模型快速加载与集成,广泛用于推理服务、AI应用后端与生产级模型部署场景。
2026年3月27日,威廉希尔500欧洲指数安全应急响应中心(VSRC)监测到vLLM trust_remote_code绕过远程代码执行漏洞。该漏洞存在于vllm/model_executor/models/nemotron_vl.py和vllm/model_executor/models/kimi_k25.py文件中,由于代码中硬编码设置trust_remote_code=True,导致用户显式配置trust-remote-code=False被绕过。攻击者可通过构造恶意HuggingFace模型仓库,在模型加载过程中执行任意Python代码,获取服务器执行权限,进而实现系统控制、数据窃取或横向移动。该漏洞破坏了trust_remote_code安全机制的信任边界,可能导致敏感数据泄露及服务被完全接管,存在较高合规风险。
二、影响范围
vLLM >=0.10.1
三、安全措施
3.1 升级版本
vLLM >=/new_type/aqtg/20260327/ /0.18.0
下载链接:https://github.com/vllm-project/vllm/releases/
3.2 临时措施
暂无。
3.3 通用建议
• 定期更新系统补丁,减少系统漏洞,提升服务器的安全性。• 加强系统和网络的访问控制,修改防火墙策略,关闭非必要的应用端口或服务,减少将危险服务(如SSH、RDP等)暴露到公网,减少攻击面。• 加强系统用户和权限管理,启用多因素认证机制和最小权限原则,用户和软件权限应保持在最低限度。• 启用强密码策略并设置为定期修改。
3.4 参考链接
https://github.com/vllm-project/vllm/security/advisories/GHSA-7972-pg2x-xr59/