六国联合发布,严防 AI 制造切尔诺贝利

2026-01-26 14:49:24
文章摘要
2025年12月3日,美、英等六国网络安全机构联合发布《OT环境中AI安全集成原则》,将关注点转向运营技术中的物理风险,标志着全球工业AI应用从追求效率转向物理安全。

2025 年 12 月 3 日,美国网络安全与基础设施安全局(CISA) 联合英国、加拿大、德国、荷兰、新西兰等国的网络安全机构,发布了一份重磅文件——《OT 环境中 AI 安全集成原则》。

在此之前,全球对 AI 安全的讨论多集中在数据隐私、版权纠纷或生成虚假信息上。但这份指南将矛头指向了一个更为致命、却长期被忽视的领域:运营技术(OT)中的物理风险

在 IT 领域,AI 犯错的后果通常是数据错误;但在 OT 领域(电网、水坝、化工厂),AI 的一次误判可能直接转化为物理设备的损坏、环境灾难甚至人员伤亡。

六国机构的联合发声,标志着全球工业 AI 的应用进入了一个新阶段:从追求效率,转向物理安全


一、 建立工业 AI 的行为规范

这份指南并没有妖魔化 AI,而是建立了一套可执行的风险管理框架,并在基础设施中引入了 AI 红线


六国联合发布《OT 环境中 AI 安全集成原则》(来源:CISA 官网)

1. AI 的固有风险:概率性 vs 确定性

许多企业将 AI 视为一种更高级的自动化系统,这是一种危险的误解。

  • 传统的工业控制代码(如 PLC 逻辑)是 确定性 的(X 或 Y);
  • AI 模型是 概率性 的(可能是 X,也可能是 Y)。

在 OT 环境中,这种概率特性带来了三大核心风险:

  • 模型漂移
    工业环境是动态的。随着设备老化或工艺调整,现实数据会逐渐偏离初始训练数据。2025 年准确率 99% 的模型,2026 年可能因机器磨损而频繁误报。
  • 对抗性攻击
    攻击者无需入侵核心系统,只需在传感器数据中加入微小扰动(如修改温度读数频率),就能诱导 AI 做出错误的停机决策。
  • 数据污染
    若供应链某环节被植入恶意数据,AI 模型可能在特定场景下误判,成为潜伏的“后门”。

工业 AI 的双刃剑:机遇与物理风险并存

2. 并非所有场景都需要 AI

指南提出了一个务实的评估标准:业务用例审查。在将 AI 引入控制回路前,必须回答:

  1. AI 带来的效率提升,是否足以覆盖其引入的额外安全风险?
  2. 对于简单的逻辑控制,传统的规则代码是否已经足够好?

注意: 对于涉及 功能安全 的环节(如紧急切断系统),应极度谨慎使用 AI。在这些环节,确定性 远比所谓的智能更重要。

同时,数据主权 成为焦点。建议尽量采用 本地化部署 的 AI 模型,严防敏感的工程配置数据在跨境传输中泄露。


AI 驱动的工作流程自动化示意

3. 治理框架:引入“配料表”

AI 的引入暴露了管理真空。文件要求建立跨部门联合治理,并引入 软件物料清单 (SBOM)

  • 透明化: 运营商应要求供应商列出 AI 系统中使用的所有开源库、算法框架及其版本。
  • 快速响应: 就像食品安全配料表,一旦某个组件爆出漏洞(如 Log4j),企业能迅速定位。
  • 隔离测试: AI 模型应在 数字孪生 或沙箱中充分验证,严禁直接在生产环境中训练。

4. 失效保护:保留撤销键

这是最具实操意义的原则:在物理世界,必须保留撤销键。

  • 人在回路 (Human-in-the-loop): 高风险控制指令(如开启泄洪闸),AI 只能作为建议者,最终确认必须由人类完成。
  • 独立故障保护: 即使 AI 系统被黑客控制,底层的物理安全机制(如机械限速器、物理泄压阀)必须能 独立运作,不受 AI 逻辑干扰。

二、 技能退化的危机


人机协作挑战:工人正通过屏幕监控自动化产线

随着 AI 处理异常的能力增强,新一代操作员面临 技能退化自动化偏见 的风险:

  1. 盲目信任: 员工习惯了 AI 的稳定运行,可能忽略设备发出的物理异响。
  2. 应变失灵: 一旦 AI 宕机,习惯了辅助系统的员工可能无法在几秒内切换回手动模式。

对策: 企业必须将 “脱 AI 演练” 纳入标准规程。如同飞行员练习手动降落,工业操作员需定期在关闭 AI 辅助的情况下进行故障处置演练。


三、 工业互联网的安全(国内视角)

视线转回国内,在“新质生产力”和“智改数转”驱动下,国内工业 AI 渗透率激增。从长三角工厂到西北光伏基地,我们在看到效率提升的同时,也面临同样的挑战。


甘肃省新能源基地累计装机规模展示(来源:央视网)

目前国内在 OT 领域 AI 应用的具体安全标准 上仍处于探索阶段。这份国际指南对国内企业极具参考价值:

  1. 本地化与边缘计算: 契合数据本地化要求,推动 AI 模型边缘侧部署,减少云端依赖。
  2. 供应链透明度: 针对大量使用的开源代码,建立符合国情的 SBOM 标准和漏洞情报共享机制。
  3. 人机协同边界: 在法规层面明确,哪些关键环节必须保留人工介入端口。

四、 结语

AI 在工业领域的应用,本质上是一场关于 控制权 的博弈。

AI 展现出惊人创造力的同时,我们必须清醒地认识到:创造力在艺术领域是优点,但在工业领域往往意味着风险。

六国联合发布的 OT 安全准则,并非要阻碍 AI 发展,而是为它铺设安全轨道。它提醒所有决策者、工程师和安全专家:

现实世界,可没有“Ctrl+Z”撤销键。

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
模型安全
边缘计算