随着大语言模型(LLM)和生成式 AI 的快速发展,企业对 AI 基础设施的需求呈爆发式增长。然而,AI 工厂(AI Factory)——支撑 AI 训练与推理的核心 IT 环境——也正在成为网络攻击者的重点目标。Check Point 于近日发布了 AI 工厂安全架构蓝图,为企业构建安全可信的 AI 基础设施提供了系统性指导。

AI 工厂面临的安全挑战

AI 工厂与传统数据中心有本质不同,其安全挑战更为复杂:

📌 真实事件:AI 工厂已成为攻击目标

2025 年,多个云服务商的 AI 训练环境遭到针对性攻击,攻击者尝试窃取训练数据集和模型权重。某研究机构的 LLM 训练任务被植入后门模型,对特定提示词产生系统性偏差输出。这些事件表明,AI 工厂的安全防护已刻不容缓。

Check Point AI 工厂安全架构蓝图

Check Point 提出的 AI 工厂安全架构分为四个核心层次:

第一层:数据安全

训练数据是 AI 工厂最核心的资产。Check Point 建议:

第二层:模型安全

模型本身也需要保护,包括防范:

第三层:基础设施安全

AI 工厂的底层基础设施包括 GPU 集群、高速网络、分布式存储等:

第四层:运营安全

AI 工厂的持续运营需要完善的安全运营体系:

关键防护建议

基于 Check Point 的架构蓝图,我们建议企业 AI 负责人重点关注以下措施:

优先级 防护措施 说明
P0 - 紧急 训练数据分级与脱敏 在数据进入训练流程前完成分级,避免敏感数据直接参与训练
P0 - 紧急 模型访问鉴权 对模型推理 API 进行严格认证与授权,防止未授权调用导致的数据泄露
P1 - 重要 提示词输入过滤 在用户输入进入模型前进行安全过滤,防止提示词注入攻击
P1 - 重要 模型行为基线监控 建立正常输出基线,检测模型输出异常波动,及时发现被攻击或篡改
P2 - 常规 供应链安全审计 对引入的第三方模型、数据集、框架进行安全审计与签名验证
P2 - 常规 GPU 集群网络隔离 划分专门的安全域,对 GPU 节点间通信实施最小权限访问控制

结语

AI 工厂安全是 AI 时代的新课题。Check Point 的架构蓝图为企业提供了一个系统化的参考框架,但具体落地仍需要根据企业实际情况进行定制。安全不是阻碍 AI 发展的阻力,而是 AI 放心落地的保障。

VISBAT 专注于企业级网络安全解决方案,可帮助您评估现有 AI 基础设施的安全风险,设计并实施适合您业务的安全架构。如有需求,欢迎联系我们的安全专家。