六国联合发布,严防 AI 制造切尔诺贝利
2025 年 12 月 3 日,美国网络安全与基础设施安全局(CISA) 联合英国、加拿大、德国、荷兰、新西兰等国的网络安全机构,发布了一份重磅文件——《OT 环境中 AI 安全集成原则》。
在此之前,全球对 AI 安全的讨论多集中在数据隐私、版权纠纷或生成虚假信息上。但这份指南将矛头指向了一个更为致命、却长期被忽视的领域:运营技术(OT)中的物理风险。
在 IT 领域,AI 犯错的后果通常是数据错误;但在 OT 领域(电网、水坝、化工厂),AI 的一次误判可能直接转化为物理设备的损坏、环境灾难甚至人员伤亡。
六国机构的联合发声,标志着全球工业 AI 的应用进入了一个新阶段:从追求效率,转向物理安全。
一、 建立工业 AI 的行为规范
这份指南并没有妖魔化 AI,而是建立了一套可执行的风险管理框架,并在基础设施中引入了 AI 红线。
六国联合发布《OT 环境中 AI 安全集成原则》(来源:CISA 官网)
1. AI 的固有风险:概率性 vs 确定性
许多企业将 AI 视为一种更高级的自动化系统,这是一种危险的误解。
- 传统的工业控制代码(如 PLC 逻辑)是 确定性 的(X 或 Y);
- AI 模型是 概率性 的(可能是 X,也可能是 Y)。
在 OT 环境中,这种概率特性带来了三大核心风险:
- 模型漂移
工业环境是动态的。随着设备老化或工艺调整,现实数据会逐渐偏离初始训练数据。2025 年准确率 99% 的模型,2026 年可能因机器磨损而频繁误报。 - 对抗性攻击
攻击者无需入侵核心系统,只需在传感器数据中加入微小扰动(如修改温度读数频率),就能诱导 AI 做出错误的停机决策。 - 数据污染
若供应链某环节被植入恶意数据,AI 模型可能在特定场景下误判,成为潜伏的“后门”。
工业 AI 的双刃剑:机遇与物理风险并存
2. 并非所有场景都需要 AI
指南提出了一个务实的评估标准:业务用例审查。在将 AI 引入控制回路前,必须回答:
- AI 带来的效率提升,是否足以覆盖其引入的额外安全风险?
- 对于简单的逻辑控制,传统的规则代码是否已经足够好?
注意: 对于涉及 功能安全 的环节(如紧急切断系统),应极度谨慎使用 AI。在这些环节,确定性 远比所谓的智能更重要。
同时,数据主权 成为焦点。建议尽量采用 本地化部署 的 AI 模型,严防敏感的工程配置数据在跨境传输中泄露。
AI 驱动的工作流程自动化示意
3. 治理框架:引入“配料表”
AI 的引入暴露了管理真空。文件要求建立跨部门联合治理,并引入 软件物料清单 (SBOM)。
- 透明化: 运营商应要求供应商列出 AI 系统中使用的所有开源库、算法框架及其版本。
- 快速响应: 就像食品安全配料表,一旦某个组件爆出漏洞(如 Log4j),企业能迅速定位。
- 隔离测试: AI 模型应在 数字孪生 或沙箱中充分验证,严禁直接在生产环境中训练。
4. 失效保护:保留撤销键
这是最具实操意义的原则:在物理世界,必须保留撤销键。
- 人在回路 (Human-in-the-loop): 高风险控制指令(如开启泄洪闸),AI 只能作为建议者,最终确认必须由人类完成。
- 独立故障保护: 即使 AI 系统被黑客控制,底层的物理安全机制(如机械限速器、物理泄压阀)必须能 独立运作,不受 AI 逻辑干扰。
二、 技能退化的危机
人机协作挑战:工人正通过屏幕监控自动化产线
随着 AI 处理异常的能力增强,新一代操作员面临 技能退化 和 自动化偏见 的风险:
- 盲目信任: 员工习惯了 AI 的稳定运行,可能忽略设备发出的物理异响。
- 应变失灵: 一旦 AI 宕机,习惯了辅助系统的员工可能无法在几秒内切换回手动模式。
对策: 企业必须将 “脱 AI 演练” 纳入标准规程。如同飞行员练习手动降落,工业操作员需定期在关闭 AI 辅助的情况下进行故障处置演练。
三、 工业互联网的安全(国内视角)
视线转回国内,在“新质生产力”和“智改数转”驱动下,国内工业 AI 渗透率激增。从长三角工厂到西北光伏基地,我们在看到效率提升的同时,也面临同样的挑战。
甘肃省新能源基地累计装机规模展示(来源:央视网)
目前国内在 OT 领域 AI 应用的具体安全标准 上仍处于探索阶段。这份国际指南对国内企业极具参考价值:
- 本地化与边缘计算: 契合数据本地化要求,推动 AI 模型边缘侧部署,减少云端依赖。
- 供应链透明度: 针对大量使用的开源代码,建立符合国情的 SBOM 标准和漏洞情报共享机制。
- 人机协同边界: 在法规层面明确,哪些关键环节必须保留人工介入端口。
四、 结语
AI 在工业领域的应用,本质上是一场关于 控制权 的博弈。
AI 展现出惊人创造力的同时,我们必须清醒地认识到:创造力在艺术领域是优点,但在工业领域往往意味着风险。
六国联合发布的 OT 安全准则,并非要阻碍 AI 发展,而是为它铺设安全轨道。它提醒所有决策者、工程师和安全专家:
现实世界,可没有“Ctrl+Z”撤销键。



