026 年 6 月 1 日,网络安全等级保护测评将迎来史上最大规模升级。新版标准(GB/T 22239-2024 配套测评体系 + GA/T 2380-2026 数据安全标准)正式落地,核心变化是AI 安全从加分项变为必查项、一票否决项,覆盖大模型、智能应用、AI 全流程,不合格直接导致等保认证失败。这场变革将重塑企业安全合规体系,尤其对金融、医疗、政务、互联网等 AI 密集型行业,合规门槛与安全责任同步升级。
一、政策重磅:AI 安全纳入等保核心,6 月 1 日强制执行 1. 标准全面更新,AI 合规有法可依
专项标准:GA/T 2380-2026《网络安全等级保护数据安全基本要求》 等四项行业标准同步实施,数据安全与 AI 安全深度绑定。
配套法规:《网络安全法(2025 修订)》《生成式 AI 服务安全基本要求(GB/T 45654-2025)》形成 “等保 + 专项法规” 双重监管,AI 安全缺陷最高可罚1000 万元,责任人最高罚 100 万元。
新增18 类 AI 安全一票否决项:模型未做对抗样本测试、训练数据未脱敏、生成内容无标识、提示词注入防护缺失等,直接导致等保失败。
适用范围全覆盖:所有 AI 系统(含大模型、智能客服、风控引擎、推荐系统、图像识别) 均需纳入测评,默认三级起步;政务、金融、医疗、生成式 AI 必须定级三级及以上。
新规打破传统等保 “重网络、轻数据、无算法” 的局限,构建 “通用基础(60%)+AI 专项(40%)”双轨测评体系,AI 安全覆盖数据、算法、模型、内容、伦理五大维度。
训练 / 推理数据:必须授权合规、脱敏匿名化、去标识化,禁止使用未授权敏感数据(个人信息、商业机密)。
数据投毒防护:建立数据清洗、恶意样本检测机制,防范训练数据被篡改、污染导致模型输出异常。
溯源审计:数据全流程留痕,日志留存≥6 个月,支持数据来源、流转、使用全程追溯。
对抗鲁棒性:必须通过对抗样本测试,防范模型被恶意扰动、输出错误结果。
算法偏见检测:排查性别、地域、种族等歧视性偏见,金融、招聘、医疗等领域重点核查。
可解释性与后门检测:关键决策(如风控、诊疗)需提供算法逻辑解释,严禁模型植入后门。
模型防护:部署模型加密、访问控制、水印溯源,防范模型参数泄露、窃取、盗版。
版本管控:模型训练、微调、更新全程留痕,支持版本回滚,防范恶意更新导致异常。
异常监控:实时监测模型输出、推理行为,发现异常(如越狱、恶意生成)立即告警并阻断。
有害内容过滤:生成式 AI 必须拦截暴力、色情、虚假信息、违法言论等有害内容。
提示词注入防护:防范恶意提示词绕过安全机制、诱导模型输出违规内容。
内容标识:AI 生成内容必须明确标注 “AI 生成”,杜绝伪造身份、虚假内容传播。
伦理合规:保障公平性、透明度,建立人类监督机制,禁止 AI 替代关键决策(如医疗诊断、司法判定)。
已上线 AI 系统(含大模型、智能应用)但未做 AI 安全测评的企业,6 月 1 日后原有等保证书失效,需重新测评。
金融、医疗、政务、能源等关键信息基础设施运营者,AI 系统必须定级三级,未达标将被暂停业务。
云服务商、AI 平台、大数据企业,需对提供的 AI 服务承担安全连带责任,审核客户 AI 应用合规性。
合规成本激增:需投入资金搭建 AI 安全测评体系、采购防护工具、开展专项整改,中小企业压力显著。
技术能力不足:对抗测试、算法审计、模型防护等专业能力稀缺,依赖第三方测评机构,周期长、费用高。
责任边界模糊:AI 全链路涉及数据提供方、模型开发方、应用运营方,安全责任划分不清易引发合规风险。
行政责任:责令整改、暂停业务、吊销许可证,罚款最高 1000 万元。
民事责任:数据泄露、侵权导致用户损失,需承担赔偿责任。
刑事责任:情节严重(如泄露涉密数据、造成重大安全事故),追究刑事责任。
排查所有 AI 系统(含自研、外购、API 调用),明确系统边界、数据流向、应用场景。
根据业务影响定级(二级 / 三级 / 四级),完成等保备案,重点行业默认三级。
数据层:梳理数据资产,分级分类,敏感数据脱敏,建立数据投毒检测机制。
算法层:开展对抗样本测试、偏见审计,提升算法可解释性。
模型层:部署模型加密、水印、版本管控,实时监控异常。
内容层:接入有害内容过滤系统,添加 AI 生成标识,防护提示词注入。
选择具备AI 安全测评资质的第三方机构,开展等保测评(含通用 + AI 专项)。
针对测评问题整改闭环,确保无一票否决项,顺利通过测评获取证书。
建立 AI 安全治理机制,明确责任部门与人员,定期开展安全培训。
实时监测 AI 系统安全状态,定期开展复测与风险评估,动态更新防护措施。