openEuler 25.09 爆测:6.6 内核 + 双生态融合,内存 / 磁盘性能碾压同级,企业数字化直接抄作业
前言
openEuler 25.09 是基于 6.6 内核打造的创新版本,传承华为 EulerOS 十余年技术沉淀,以 “支持多样性计算、覆盖全场景” 为核心定位,兼容 x86、ARM 等多架构,深度融合欧拉 - 鸿蒙双生态,已成为操作系统的中坚力量。随着企业对高性能、高可靠开源系统的需求激增,尤其是 AI 推理、数据库部署等性能敏感场景的落地,系统的资源调度效率与稳定性愈发关键。本次测评以 openEuler 25.09 为核心,围绕安装部署、基础配置、内存性能、磁盘 IO 性能等多维度展开实测,搭配 nmon、vmstat 等工具完成全链路监控,全面验证其在实际应用场景中的表现。测评全程基于 VMware 虚拟机真实环境,所有数据均为实测所得,无模拟或估算成分,旨在为企业数字化转型及相关场景落地提供客观、可靠的性能参考。
一 openEluer介绍
openEuler 是什么?起源与核心定位
openEuler 的前身是华为内部研发的服务器操作系统 EulerOS,自 2010 年起便服务于华为存储、云计算等核心业务,积累了深厚的技术沉淀。2019 年 12 月,华为正式将其开源并更名为 openEuler,随后捐赠给开放原子开源基金会孵化运营,成为完全开放的社区项目。
作为面向数字基础设施的操作系统,openEuler 的核心定位是 “支持多样性计算的全场景智能操作系统”,它打破了传统操作系统的架构壁垒,覆盖服务器、云计算、边缘计算、嵌入式四大核心场景,同时支持 IT、CT、OT 领域的融合应用,为企业数字化转型提供统一的技术底座。截至 2024 年,openEuler 累计装机量超 680 万套,覆盖全球 153 个国家,在中国新增服务器操作系统市场份额已达 36.8%,成为自主创新操作系统的中坚力量。
openEluer的总体架构
openEuler 架构的两大核心优势
- 多架构硬件兼容,打破嵌入式芯片生态壁垒
支持 ARM、RISC-V、LoongArch、x86 等主流处理器架构,兼容龙芯、飞腾及国际 ARM、x86 芯片,开发者无需为不同硬件单独适配系统,实现 “一次开发,多端部署”,大幅降低跨芯片开发成本。
- 欧拉 + 鸿蒙双生态融合,拓展嵌入式全场景互联
深度融合欧拉与鸿蒙生态,通过分布式软总线等技术,让嵌入式设备与鸿蒙智能终端(如工业平板
openEuler环境准备
本文章需要安装功能完整openEuler,即所有操作在虚拟机中进行实现,本章节将会讲述从初始创建到完整安装的基础步骤。
本章节采用虚拟机实现openEuler操作系统,需要下载VMware workstation
下载教程可以参考:https://blog.csdn.net/weixin_74195551/article/details/127288338
openEuler操作系统官方地址:https://www.openeuler.openatom.cn/zh/
1.首先创建一台虚拟机
2.操作系统推荐配置
虚拟机已经配置完成,接下来就是配置openEuler操作系统
- 开启虚拟机
openEuler的菜单栏有"开启此虚拟机选项",选择并点击
等待5分钟左右,等待虚拟机自动安装完成。
2.语言选择
选择自己能看懂的语言,这里选择的是"中文"

- 配置信息摘要
这里是配置系统的核心面板,我们需要配置几个信息
Root账户
点击面板上的"Root账户",设置相关信息

网络和主机名
ens160以太网默认是关闭的,需要手动打开,一旦启用,虚拟机会从VMware NAT服务获取一个ip地址

环境测试和基础配置
输入在配置中的用户名和密码后,可进入操作系统,进行验证
看到第一个登录符的时候代表成功

查看环境配置

1. 操作系统发行版与版本
- 发行版:openEuler
- 具体版本:25.09(通过
cat /etc/os-release中VERSION="25.09"、PRETTY_NAME="openEuler 25.09"确认) - 内核与硬件架构
- 内核版本:
6.6.0-102.0.0.oe2509.x86_64(通过uname -r确认) - 硬件架构:x86_64(内核版本中的
x86_64标识) - 网络配置
- 回环接口
lo:IP 为127.0.0.1/8,用于本地回路通信。 - 物理网卡
ens160:IP 为192.168.72.128/24,处于UP状态,支持 IPv4 和 IPv6。 - Docker 虚拟网卡
docker0:IP 为172.17.0.1/16,当前状态DOWN(未启用 Docker 网络时的常见状态)。
openEluer各项性能评测
内存性能测试
- 测试介绍:通过专业工具模拟内存读写负载与高压力场景,检测系统内存的读写效率、延迟及稳定性,验证内存资源在业务峰值下的可用性与性能表现。
- 测试目的:确保系统内存能高效支撑数据交换、缓存等业务需求,避免因内存性能瓶颈导致应用响应缓慢、系统崩溃等问题。
- 测试工具:sysbench(需手动安装)、stress(需手动安装)
磁盘 IO 性能测试
- 测试介绍:通过命令行工具与专业测试软件模拟磁盘顺序读写、随机 IO 等场景,检测磁盘吞吐量、IOPS(每秒输入输出次数)、延迟等核心指标,验证磁盘 IO 性能是否满足业务对数据持久化、读取的效率要求。
- 测试目的:确保磁盘在高负载下的读写稳定性与效率,避免因磁盘 IO 瓶颈影响数据库、日志存储等业务模块的性能表现。
- 测试工具:openEuler 自带
dd命令、sysbench(需手动安装)
内存读写性能测试
内存作为系统数据交换的核心载体,其读写速度、负载稳定性直接影响应用响应效率。以下通过sysbench与stress工具开展测试。
测试命令:
bash
测试结果:

测试配置:block size=1024KiB(1M)、total size=1024MiB(1G)、写操作、单线程。
指标类别 | 具体数值 | 含义与价值 |
吞吐量 | 5474.99 MiB/sec | 每秒可写入的内存数据量,直接反映内存写带宽,数值越高则内存吞吐能力越强。 |
操作效率 | 5474.99 次/秒 | 每秒完成的内存写操作次数,与 “块大小 × 操作次数” 的乘积可验证吞吐量的一致性。 |
延迟(Latency) | 平均0.18ms、95% 分位0.25ms | 内存写操作的响应时间,延迟越低则内存实时性越好,对高并发、低延迟业务越友好。 |
该测试结果显示,当前系统的内存写性能在吞吐量、操作效率、延迟三方面均表现优异,适合对内存性能敏感的业务场景
IO 性能测试
测试命令:

- 第一条测试:
- 数据量:
1.0 GB(1000 MiB) - 耗时:
1.95251 s - 吞吐量:
537 MB/s - 第二条测试:
- 数据量:
1.0 GB - 耗时:
0.756053 s - 吞吐量:
1.4 GB/s(约 1400 MB/s)
性能差异分析
- 缓存机制影响:
- 若第一条测试是 “首次写入”(系统缓存未命中),第二条是 “二次写入”(缓存命中),则缓存会大幅提升吞吐量(内存级缓存速度远高于磁盘)。
- 若测试时未加
oflag=direct参数(禁用系统缓存),这种差异会更明显。 - 存储介质类型:
- 若为NVMe SSD,
1.4 GB/s的吞吐量符合其高性能特性(顶级 NVMe SSD 顺序写速度可达 3000+ MB/s,该结果属于正常区间); - 若为SATA SSD,
537 MB/s也符合其典型性能(SATA SSD 顺序写速度通常在 500-600 MB/s)。 - 两条测试可能对应 “不同存储介质” 或 “同一介质的不同 IO 调度策略”。
- 块大小与 IO 调度:
dd的块大小(bs参数)和系统 IO 调度算法(如mq-deadline、kyber)也会影响吞吐量,若两条测试的块大小或调度策略不同,也会导致性能差异。
内存负载稳定性测试
工具介绍:stress-ng
测试命令:
运行截图:

本次测试模拟了高并发随机读写 + 强数据一致性的典型场景(完全贴合数据库、交易系统的真实逻辑):
- 数据规模:创建 128 个文件,单文件 40MB,总数据量 5GiB;
- IO 配置:采用 16KiB 块大小,读写比 1.5(读操作更多);
- 同步策略:开启周期性
fsync,强制使用同步 IO 模式(确保数据落盘一致性,模拟数据库事务提交场景)。 - 从数据特征判断,这是一款高性能 NVMe SSD的典型表现 —— 只有 NVMe 协议的存储设备,才能在 “同步 IO + 高并发随机读写” 场景下保持如此高的 IOPS 和低延迟。
- 对比传统 SATA SSD(随机 IOPS 通常不足 2000 次 / 秒,延迟毫秒级),其性能优势至少在 3 倍以上,完全拉开代差。
综合系统监控
实时多维度监控
运行代码
交互界面

工具快捷键展示:
使用nmon工具实时监控 CPU、内存、磁盘、网络的综合状态,直观查看测试过程中的系统负载变化:
在nmon交互界面中,按以下字母切换监控维度:
c:CPU 使用率(各核心负载、用户态 / 内核态占比),关注高负载下是否存在核心饱和;m:内存使用(已用、空闲、缓存、交换分区),结合内存测试观察是否有溢出风险;d:磁盘 IO(各磁盘的读写吞吐量、IOPS),判断磁盘是否成为性能瓶颈;n:网络带宽(各网卡的收发速率、丢包率),验证网络传输稳定性。
优点
在 openEuler 运维场景中,nmon 凭借三大核心优势成为性能监控利器:
- 全维度覆盖:一键切换 CPU、内存、磁盘、网络、进程等核心指标,全局掌握系统性能全景。
- 极简交互:单键操作切换监控项,零学习成本,快速定位性能瓶颈。
- 轻量兼容:资源消耗可忽略,深度适配 openEuler,日常监控与故障排查全程高效。
系统资源趋势分析
工具介绍:vmstat是 Linux 自带的系统状态统计工具,可输出 CPU、内存、磁盘、进程等资源的实时趋势数据,便于长期性能趋势分析。
测试命令:
bash

这是通过vmstat 1 10命令(每隔 1 秒采样,共 10 次)获取的 openEuler 系统性能数据,从以下维度解析系统状态:
进程与 CPU 负载
- 进程队列(procs):
r(运行队列长度)多为 0 或 1,b(阻塞进程数)始终为 0 → 无进程排队等待 CPU 或 IO 阻塞,进程调度压力极小。 - CPU 利用率(cpu):
id(空闲率)持续 99%~100%,us(用户态)、sy(系统态)占比极低 → CPU 几乎完全空闲,无计算或系统调用压力。
内存与交换分区
- 内存(memory):
swpd(交换分区使用)始终为 0,free(空闲内存)数值稳定 → 内存充足,未触发交换分区使用。 - 交换(swap):
si(换入)、so(换出)均为 0 → 内存与交换分区无数据交换,内存资源完全满足当前需求。
磁盘 IO 与系统调用
- 磁盘 IO(io):
bi(块入)、bo(块出)多为 0,仅偶尔出现小数值 → 磁盘读写压力极低,无高频 IO 操作。 - 系统调用(system):
in(中断数)、cs(上下文切换)数值平缓 → 系统中断和进程切换负载极轻。
总结:
安装部署便捷,通过 VMware 虚拟机即可完成,基础配置流程清晰,适配 x86_64 架构稳定可靠。性能测试中,内存写吞吐量达 5474.99 MiB/sec,平均延迟 0.18ms;磁盘顺序读写最高 1.4 GB/s,随机 IO 场景 IOPS 超 1.3 万次 / 秒,适配 AI 推理、数据库等性能敏感场景。
nmon 工具实现全维度指标监控,vmstat 精准捕捉资源趋势,二者适配性强。综上,openEuler 25.09 在性能、兼容性、易用性上表现均衡,为企业数字化转型及云原生 AI 落地,提供高性价比的开源方案。
前言
openEuler 25.09 是基于 6.6 内核打造的创新版本,传承华为 EulerOS 十余年技术沉淀,以 “支持多样性计算、覆盖全场景” 为核心定位,兼容 x86、ARM 等多架构,深度融合欧拉 - 鸿蒙双生态,已成为操作系统的中坚力量。随着企业对高性能、高可靠开源系统的需求激增,尤其是 AI 推理、数据库部署等性能敏感场景的落地,系统的资源调度效率与稳定性愈发关键。本次测评以 openEuler 25.09 为核心,围绕安装部署、基础配置、内存性能、磁盘 IO 性能等多维度展开实测,搭配 nmon、vmstat 等工具完成全链路监控,全面验证其在实际应用场景中的表现。测评全程基于 VMware 虚拟机真实环境,所有数据均为实测所得,无模拟或估算成分,旨在为企业数字化转型及相关场景落地提供客观、可靠的性能参考。
