⑴ 夏季SoC发热深度对比:麒麟9000与骁龙888谁更“冷酷”
转眼时间就到了年中,手机界各种芯片之间的性能对比相信大家已经看得很多了,尤其是麒麟9000与骁龙888这一对安卓阵营顶级芯片之间,各种维度的比较都很多。不过,由于季节是从冬春季步入夏季,相信大家有一个感觉会逐渐被放大——手机发热甚至是发烫,尤其是在打 游戏 的时候。那么问题来了:夏季高温情况下,手机功耗与发热多大程度上会被高温影响?笔者就来专门测一测,看看麒麟9000与骁龙888在夏季高温的时候,谁的功耗上升慢,谁的发热控制好,谁更适合在夏季使用。
为了让测试具有实际参考性,笔者分别进行了室外高温+常温极限 两个测试环境。使用的机型则是两款万元高端机,华为Mate40 RS保时捷设计与三星S21 Ultra,测试 游戏 分别是《王者荣耀》、《和平精英》、《原神》三款 游戏 ,覆盖小型、中型与大型 游戏 三个档位,对性能与功耗的要求逐步升级。
简单看下两款处理器。麒麟9000使用了台积电的5nm工艺,搭载三档八核CPU,GPU首发24核Mali G78,NPU是达芬奇架构2.0,标配巴龙5G基带,性能直接拉满的同时能效比大幅提升,堪称是史上最强麒麟。
骁龙888使用了三星5nm工艺,CPU也是三挡八核架构,GPU升级Adreno 660,DSP升级Hexagon 780,标配X60 5G基带,性能飙升,是高通最强SOC。
除了SoC的配置,再来看看移动端芯片综合性能排行,麒麟9000综合得分126.4,骁龙888得分118.6,麒麟超过骁龙成为安卓移动芯片第一。综合性能有所差别,又差别在哪里,实际体验怎么样?下面进入测试。
为了测试的准确,笔者分别对三款 游戏 都分别进行了空载功耗测试,来排除屏幕这个耗电大户对功耗的影响,最大还原玩 游戏 中处理器尤其是GPU的功耗情况。
实测两款手机空载功耗如上:
通过空载功耗可以看到,两款手机的屏幕耗电差距并不明显。下面正式进入今天的主题,麒麟9000与骁龙888的性能+功耗+发热PK。
20分钟不间断测试,PerfDog监测的数据结果如下:
(提示:有四次帧率低谷,均是因王者结束重开导致)
先看帧率,两款手机都保持在了60帧左右的高水平,除了结束一局重开中间的四次加载掉帧(华为Mate40 RS开了3局,三星S21 Ultra开了一局 ),玩王者都毫无压力。
再看功耗,去掉空载功耗并简单计算功耗差值,麒麟9000比骁龙888低862-709=153 mWh, 计算得到骁龙888比麒麟9000的功耗高153 709=19.4%。意味着骁龙888每玩80分钟的王者,麒麟9000就可以玩将近100分钟,这个功耗差对续航的影响比意料之中的要大。
发热方面,麒麟9000玩20分钟后最高温达到了39.7 ,骁龙888达到了40.9 ,温度差达有1.2 ,属于温热到微烫的一个手感程度,夏天还可以接受。
小结:玩王者荣耀,麒麟9000与骁龙888性能不相上下,但麒麟9000功耗有20%多的优势,同时温度更低。
30分钟不间断 测试,PerfDog监测的数据结果如下:
(提示:有三次帧率低谷,均是因和平精英结束重开导致)
先看帧率,华为Mate40 RS比三星S21 Ultra低了 39.6-39.2= 0.4帧,原因并不是麒麟9000性能不足,而是因为有一局快速成盒子了,导致多一次,与上面测试王者遇到了一样的问题。简单来说玩吃鸡,麒麟9000与骁龙888也没什么压力。
再看麒麟9000与骁龙888的功耗差值,达到了1479-1047=432 mWh,计算 得到 麒麟9000功耗比骁龙888低 432 1047= 41 .3 %,这个差距吓到我了,毕竟这次对比的对象不是7nm的骁龙865+ 。
为什么骁龙888功耗会更高?或许发热能说明一些问题。麒麟9000玩和平精英30分钟最高温40.2 ,只是比王者荣耀高了0.5 ,说实话这个发热还是蛮出乎意料的。而骁龙888温度则同比升高了1.1 ,从温热变为了轻度烫手的42 ,尤其是边框会更加明显,骁龙开始“上火”了。
小结:在中度性能与持续发热的影响下,麒麟9000在能效比上把骁龙888甩开了,省电优势继续拉大。
由于三星S21Ultra原神会锁帧到40,所以都选择了同一标准的30帧测试,PerfDog的监测数据如下:
(提示:原神不会因为死亡重开,所以图中帧率波动均是处理器真实性能反馈)
先看帧率,这次没了 游戏 打完一局重新开始的影响,紫色线的麒麟9000平均帧率比绿色线的骁龙888高了 29.9-27.6= 2. 3 帧,虽这个领先并不多,但是细看帧率波动线就可以发现,麒麟9000几乎没有过大的帧率波动,甚至帧率方差Var是0,但骁龙888却一直有很大的波动,帧率方差Var达到了16.6, 游戏 中会很多次感受到明显的掉帧。
再看功耗,玩原神的功耗差值变为了 1342-1037= 305mWh,骁龙888在原神上功耗比麒麟9000高 305 1037= 29.4%,相比和平精英的41%大幅降低,是不是意味着这才是骁龙的真实实力?别着急先表态,下面还有 发热 数据。
发热方面,麒麟9000温度升到了41.8 ,玩 游戏 会明显感到烫手了。骁龙888温度则是升到了43.2 ,虽只比麒麟高了1.4 ,但却第一次攀升到了43 以上,玩 游戏 会感到更明显的烫手,骁龙888功耗下降的原因也找到了——发热降频,导致功耗下降,算是一个有失有得的结果。
小结:通过王者、和平精英、原神三款 游戏 的一个高温环境测试,发现Mate40 RS确实比三星S21 Ultra体验优势明显,在高温天麒麟9000的性能输出更加持久、稳定,CPU+GPU高能效比进一步凸显, 游戏 发热更低、功耗更低。骁龙888则像是一个反面,虽性能强劲,但能效比低与可能的调度问题,遇到中高性能需求时会快速升温,导致要么是功耗大幅增加,要么是为了降发热而卡顿 掉帧 。
为了进一步证实以上的猜测,笔者又用和平精英与原神两款 游戏 做了更进一步的测试。
在户外通风环境下,和平精英选择了90分钟连续不间断的实测,PerfDog监测的数据结果如下:
(提示:有七次帧率低谷,华为重开4次,三星重开3次)
帧率波动图如上,使用麒麟9000的华为Mate40RS很不幸地又比使用骁龙888的三星S21 Ultra多重开了一局,导致帧率骁龙888比麒麟9000高39.6-39.3=0.3帧。两款手机的帧率波动除了重开的大幅下降,和平精英连续玩中并没有出现明显波动,都拥有良好的 游戏 帧率表现。
在功耗上差值上,骁龙888比麒麟9000多了3177-2615=462mWh,整体功耗骁龙比麒麟高462 2615=17.7%,两款处理器的功耗差继续变小了,这种变化的原因是什么,咱们接着看发热,或许能告诉我们为什么。
温度上,麒麟9000从上一次和平精英测得40.2 上升到了42 ,升温1.8 ,麒麟也进入了烫手阶段。骁龙888则是从42 直接上升到了44 ,升温2 ,从火热升级到“火烫”阶段。
这样一对比,或许就能明白麒麟9000功耗从比骁龙888低41%升到低17.7%的原因了,即使麒麟9000的能效比高与发热低,但是长时间的 游戏 也会让发热累积到一个高度,导致处理器能效比降低,进而功耗就升高了。
带着探究的精神,进行了原神最后30分钟的测试,华为三星两款手机全开60帧+最高特效,即使三星锁帧40,也要看看到底会有什么结果。PerfDog监测数据结果如下:
这一次先看功耗,麒麟9000功耗比骁龙888高了 2035-1851= 184mWh,也就是高了 184 1851= 9.9%,这是骁龙888功耗首次战胜麒麟。对比第一部分内容中的原神30帧 的功耗 测试结果,麒麟9000同比增加了96.2%,骁龙888同比增加了37.9%,看来 降低用户体验的 锁帧对于骁龙888来说确实一个省电的好办法。
(提示:原神不会因为死亡重开,图中帧率波动均是处理器真实性能反馈)
再看帧率,在三星锁帧40帧的情况下,华为Mate40 RS平均比三星S21 Ultra高56.2-38.7=17.5帧,计算得到华为帧率比三星高17.5 38.7=45%,帧率上这一次华为跑原神拥有碾压之势。同时从帧率曲线图上也可以看到,华为与三星这次都很吃力,两者都有明显的大幅度掉帧。
结合帧率与功耗,也就是说在功耗高9.9%的情况下,麒麟9000最高实现了比骁龙888高45%左右的性能输出,当然这么换算可能不准确,但依然具有一定可参考价值。
最后再来看看性能跑满的情况下,发热会如何,由于两款手机的极限温度都出乎意料,因此这次正反面的发热都记录了。
华为Mate40 RS正面最高温度45.1 ,背面最高温度44.9 ,已经达到了很烫手的地步,这也是笔者第一次把华为Mate40 RS玩到这个温度,可以称得上是“烤机了”。
三星S21 Ultra正面最高温度46.5 ,背面最高温度47.2 ,手感温度已经到了一个感觉会boom的地步,“火龙”正式露出了真面目。要知道这还是骁龙888锁帧40帧的结果,如果不锁帧突破50 大关也不是没有可能。当然,如此高温也可能与三星的散热优化不足有关,这也是一个重要影响因素。
结合功耗、帧率与发热温度三者可以发现,虽麒麟9000跑满原神会功耗大幅增加,同时温度大幅升高、帧率波动增大,但整体的功耗水平、发热水平都依然比骁龙888低,不得不说这已经不是一个可以用能效比、性能来简单解读的了,会涉及到更深层次的芯片设计、芯片制造的制程工艺、芯片封装工艺、芯片性能调度机制、芯片与手机的深度耦合适配、以及类似于GPU Turbo等底层软件技术等,用一个个的前沿技术,才能把麒麟9000打磨的超出行业表现。
通过两轮使用情形的对比,可以发现麒麟9000相比骁龙888在持续的高性能输出、高能效比、低发热上有着明显的优势。对于 游戏 党来说,可能骁龙888与麒麟9000在王者这类小 游戏 体验不会有太明显的差别,都是安卓阵营最顶尖的存在。但当面对高温天气+原神这种大型 游戏 的时,麒麟9000的高性能+高能效比+低发热优势就凸显出来了,同比更低温+长续航。至于网友们会怎么选择或者有什么看法,相信看完这篇深度对比已经有了答案。
⑵ iqoo9怎么连接perfdog
1.显示连接的设备
2.选择需要测试的app
3.device tab下显示设备的基本信息,setting设置参数,about里面有perfdog的官方介绍
4.FPS 刷新的次数
5.cpu cou使用率
6.流量
7.若想要测试其他指标,可以7中勾选,这里简单介绍几个常用的
screenshot 图形模式(数据线模式下使用)
Fps 刷新次数
Frame time 计算绘制每个图形的时间
cpu usage cpu使用率
memory uasge 内存
cpu temperature cpu温度
network 流量
battery 电量(wifi模式下)
8.开始记录数据
9.从左到右,为每个阶段打上标签,本地存储位置,web云存储数据
iQOO 9是iQOO于2022年1月5日发布的手机产品,于1月12日正式上市。
iQOO 9采用6.78英寸AMOLED(E5柔性)屏幕;高度约164.55毫米,宽度约76.7毫米,厚度约8.37毫米,重量约206.1克;配有传奇版、赛道版、锋芒三种颜色。
iQOO 9搭载高通骁龙8 Gen1八核处理器;后置5000万像素主镜头+1300万像素广角镜头+1200万像素人像镜头三摄,支持2倍光学变焦、20倍数字变焦等拍照功能,前置1600万像素摄像头;搭载4700毫安时容量电池。
⑶ APP页面掉帧卡顿原因及Perfdog性能测试之FPS
最近在做APP性能专项测试,视频剪辑过程中出现多次卡顿掉帧的问题,为了更好地了解出现掉帧卡顿的原因,去查阅了资料并记录下该文章
了解卡顿原因之前,先了解下视图渲染过程如下图:
1、CPU计算显示的内容(如文本绘制,UI布局计算,视图创建,图片解码等等),然后把计算好的内容提交给GPU
2、GPU 渲染(变换,图层合成,纹理渲染等)完成后,将渲染结果放入帧缓冲区
3、视频控制器会按照 VSync 信号逐行读取帧缓冲区的数据,经过可能的数模转换传递给显示器显示
备注:
1、显示器上的所有图像都是一线一线的扫描上去的(从左到右,从上到下刷新),如下图:
3、水平同步可能会出现画面撕裂的现象(如下图)。因为画面的渲染不是整个画面一起渲染的,是逐行逐列渲染。如果没有开启垂直同步,设备配置不够,则画面在高速移动中会出现一行还没刷新完成就出现下一行,进而出现撕裂情况
4、垂直同步就是为了解决画面撕裂的问题,当开启垂直同步后,GPU 会等待显示器的 VSync 信号发出后,才进行新的一帧渲染和缓冲区更新。这样能解决画面撕裂现象,也增加了画面流畅度,但需要消费更多的计算资源,也会带来部分延迟。
5、目前,iOS设备使用双缓存,并开启垂直同步,Android是三缓存,并开启垂直同步(缓存之间怎么切换的呢???)
首先,先了解下基础的知识:假定设备的刷新率是60HZ,如果页面的滑动流畅率为60fps,也就是一秒更新60张图片,人眼上看就是流畅的效果,也就是每隔16.7ms(1/60)就要产生一帧的画面,即:每隔16.7ms发出V-SYNC信号,触发对UI进行渲染,这一帧的画面需要由CPU和GPU共同协同完成显示(详见上面的视图渲染过程)
卡顿掉帧原因:
如果在一个 VSync 时间内,CPU花费的时间比较长,留给GPU的时间就比较少,GPU+CPU总时间就可能超过16.7ms,下一帧到来前,没准备好当下帧的画面,这时候显示器还是显示上一帧的画面,就出现掉帧,就出现滑动卡顿;
同理,如果GPU花费的时间比较长,总时长也可能超过16.7ms
所以,CPU 和 GPU 不论哪个阻碍了显示流程,都会造成掉帧现象
经过上面的分析,为了优化掉帧卡顿问题,我们就需要对CPU和GPU的处理过程进行优化
先讲下以下的几个参数:
Frames Per Second;应用界面平均每秒刷新次数,
Jank :1s内卡顿次数
BigJank :1s内严重卡顿次数
PerfDog Jank计算方法:
1. 同时满足以下两条件,则认为是一次卡顿 Jank.
a) 当前帧耗时>前三帧平均耗时2倍。
b) 当前帧耗时>两帧电影帧耗时(1000ms/24 2=84ms)。
2. 同时满足两条件,则认为是一次严重卡顿 BigJank .
a) 当前帧耗时>前三帧平均耗时2倍。
b) 当前帧耗时>三帧电影帧耗时(1000ms/24 3=125ms)。
测试过程中,卡顿时长的占比。即Stutter(卡顿率)=卡顿时长/总时长
卡顿时长计算:基于Jank的基础上,一次Jank卡顿,会有一次卡顿时间Jank time。测试过程中可能有多次Jank卡顿,即有多次卡顿时间Jank time。卡顿时长即为多次卡顿时间的和
上下帧画面显示时间间隔,也可简单认为单帧渲染耗时
Avg(FTime):平均帧耗时
1、流畅度不等于FPS,需要多维度衡量,考虑FPS,Jank,Stutter
2、APP需要关注FPS、Jank及卡顿率。只是需要区分使用场景,如:
(1)、静态页面窗口
只需关注FPS,理论FPS应该为0,否则,说明有冗余刷新,容易引起手机发热及耗电。
(2) 有滚动动画页面窗口
只需关注FPS,FPS处于合适值即可,无需高频刷新。
(3)快速滑动页面窗口。
需要关注FPS、Jank及卡顿率。手机交互灵敏度就是来源于此,一般滑动状态下,帧率越高越好,Jank越小越好。
(4) 播放视频页面窗口。
需要关注FPS、Jank及卡顿率,视频卡顿直接影响用户。视频一般帧率18-24帧,Jank=0。比如微信播放视频、视频播放器等。
⑷ perfDog 笔记1:基本使用
IOS/Android性能测试、分析工具平台。快速定位分析性能问题。
支持移动端所有应用程序(游戏、app应用、浏览器、小程序、小游戏、H5、后台系统进程等)、Android模拟器、云真机等性能测试。
支持APP多进程测试
PerfDog桌面应用程序版本都支持对IOS和Android设备进行测试。PerfDog多开,支持单PC同时测试多台手机
登录PerfDog官网 https://perfdog.qq.com/
ios: 若检测不到连接手机,先安装itunes确保手机能连上PC
Android: 非安装模式和安装模式
注:手机一开启USB调试模式,并允许USB应用安装
a. 非安装模式:即插即用,无需配置安装;但手机上无实时性能数据显示
b. 安装模式:手机上自动安装PerfDog.apk,手机上显示实时性能数据
以华为手机为例,
USB模式: USB连线后,在设备列表选择USB图标设备进行USB模式测试
WIFI模式: 只能在WIFI模式测试功率等信息。USB连线后,在设备列表选择WIFI图标,进行WIFI模式测试。WIFI检测连接成功后,拔掉USB连接线
注:
1. PC和phone连接同一WiFi,检测成功后,按照提示拔出USB连接线
2. USB模式下phone充电,测试功率无意义
android已安装PerfDog后,左上角显示实时性能数据
⑸ perfdog会泄露用户信息吗
最近QC同学在跑游戏的过程中发现玩的时间久了游戏会发生闪退,经过搜集信息后排除了功能性bug的
一.判断是否是内存泄露
拿到真机,USB连接,杀掉多余后台进程,打开Perfdog,接下来一顿操作猛如虎,Perfdog具体操作不在赘述,有关perfdog怎么使用的教程可以参考
Perfdog使用教程
拿到内存趋势图
使用手机
此图一出,基本就可以断定内存泄露了,这是正常玩游戏,游戏运行了30分钟的内存趋势图;
结论:,内存持续上升,存在内存泄露。
一个优秀的游戏通常情况内存是有上升有回落,多次运行同一个功能也不会导致内存功能持续上升;
呈现出起伏状态,比如:
知道了存在内存泄露,下面就要开始分析有可能是哪里导致的内存泄露;
二.分析泄露原因
一般针对unity游戏来说,内存瓶颈是资源和Mono堆内存,两部分;
以下是unity游戏程序在运行时的内存分配概况
先简单介绍下Mono,unity使用Mono机制来完成跨平台的操作,就好像JAVA使用虚拟机来完成跨平台操作一样,Mono也是一种跨平台的实现。跨平台其实现原理在于使用了叫CIL(Common Intermediate Language通用中间语言,也叫做MSIL微软中间语言)的一种代码指令集,CIL可以在任何支持CLI(通用语言基础结构)的环境中运行,就像.NET是微软对这一标准的实现,Mono则是对CLI的又一实现。由于CIL能运行在所有支持CLI的环境中,例如刚刚提到的.NET运行时以及Mono运行时,也就是说和具体的平台或者CPU无关。
一般对于unity开发的游戏来说,内存的开销都是围绕下面的三个方面:
1.资源内存的占用;
2.引擎模块自身内存占用;
3.托管堆内存占用。
Mono通过垃圾回收机制(GarbageCollect,简称GC)对内存进行管理,可以自动地改变堆的大小来适应你所需要的内存,并且是可以适时地调用垃圾回收(GarbageCollection)操作来释放已经不需要的内存。也就是说Mono会自动释放一些内存,但要注意的是GC释放的内存只会留给mono使用,并不会交还给操作系统,因此mono堆内存是只增不减的。
这里简单介绍下Mono回收原理:
Mono会跟踪每次内存分配的动作,并维护一个分配对象表,当GC的时候,以全局数据区和当前寄存器中的对象为根节点,按照引用关系进行遍历,对于遍历到的每一个对象,将其标记为活的(alive)。所有对象的被标记意味着该对象可以通过全局对象或者当前上下文访问到,而没有被标记的对象则意味着该对象无法通过任何途径访问到,即该对象“失联”了,GC最终会将所有“失联”的对象内存进行回收。
内存泄露定义
我们把对象已经不再需要使用却没有被GC回收的情况称为mono内存泄漏。Mono内存泄漏会使空闲内存减少,GC频繁,mono堆不断扩充,最终导致游戏内存占用的升高。最终导致内存过高,进程被操作系统Kill或者崩溃。简单来说,也就是一些对象被实例化出来后没有被释放掉,一种保存在内存中,新的对象又需要申请新的内存空间,导致内存不断上升。
重点关注点
配置文件的使用、纹理、网格、RenderTexture和粒子系统;
比如频繁的创建销毁对象是否使用对象池,或者粒子,纹理等资源显示过后是否被及时从内存中释放,等等;
三.测试手段
1.首先通跑测试,确定问题确定原因,比如我上面通过通跑游戏确定存在内存泄露;
2.缩小范围,由于一个游戏在运行的过程中场景比较复杂,上面的同跑并不能准确定位问题,所以我们要划分场景测试,例如我在上面的通跑游戏过程中包括以下场景,打开关闭UI界面,战斗场景,切换地图,升级武器等,如果没有比较明显的数据,那就要分别针对以下场景进行测试。比如UI场景可以反复打开关闭UI界面,战斗场景可以持续战斗挂机,反复切换地图等等,总之是把游戏内进行的行为减少,细化要检测的场景;
3.定位问题
如果某个场景发生内存泄露,边定位到那个场景运行游戏,而在游戏运行时,相应的引擎也有一些工具可以查看具体的代码使用情况,比如unity的Profiler。
如果多个场景都出现内存泄露,那就要查找这些场景所交叉的部分,比如通信框架等;而本次经过多个场景的测试发现都存在泄露,最后经过排查发现是使用的通信框架存在泄露问题。
四,Perfdog内存相关简介
通常情况下安卓可以轻松获取到的内存有4种数据,我们也可以通过ADB来获取,
VSS - Virtual Set Size 虚拟耗用内存(包含共享库占用的内存)
RSS - Resident Set Size 实际使用物理内存(包含共享库占用的内存)
PSS - Proportional Set Size 实际使用的物理内存(比例分配共享库占用的内存)
USS - Unique Set Size 进程独自占用的物理内存(不包含共享库占用的内存)
一般来说内存占用大小有如下规律:VSS >= RSS >= PSS >= USS
而Perfog的Memory也就是 Android PSS Memory,也是我们通常来用作代表内存的数据,是实际使用的物理内存大小。
Swap Memory (Swap Memory,部分设备支持Swap功能,在启用Swap功能后,系统会对PSS内存进行压缩,Swap增加,PSS会相应减少,由于压缩会占用CPU资源,同时相应会导致FPS降低)
Virtual Memory(VSS) 虚拟内存是计算机系统内存管理的一种技术。它使得应用程序认为它拥有连续的可用的内存(一个连续完整的地址空间),而实际上它通常是被分隔成多个物理内存碎片,还有部分暂时存储在外部磁盘存储器上,在需要时进行数据交换。
五、Perfdog新功能初探
PerfDog 3.5版本刚刚推出,新增一个最新的数值,CPU Usage(Normalized):规范化CPU利用率
官方给出的解释为:
传统计算方法:当前时刻CPU频率下,CPU Usage = CPU执行时间/CPU总时间。
由于移动设备CPU频率时刻变化,用传统CPU利用率计算方法,假定在低频率时刻计算出CPU利用率=30%,和在CPU高频时刻计算出CPU利用率=30%。同样都是30%但性能消耗是完全不样的,明显高频消耗更高。传统CPU利用率已无法真实反映性能消耗。
所以我们需要一种规范化(可量化)的统计方式。将频率因素考虑进去。
CPU Usage(Normalized)= (CPU执行时间/CPU总时间) * (当前时刻所有CPU频率之和/所有CPU频率最大值之和)。
PerfDog两种统计方式都有。CPU Usage默认为规范化CPU利用率。建议使用规范化CPU利用率作为衡量性能指标。
具体的描述可以看这里:规范化CPU利用率
尝鲜体验以下。测试使用过程和之前的一样。来看看新增的数据对比
title:
CPU Usage趋势图对比:
CPU Core Usage趋势图对比:
从趋势图来看的话,实际上两种算法并无太大差异,但是精确到具体帧的使用率,差异会比较明显,单纯从性能的角度来说,传统CPU利用率仅能从数值的角度体现手机的CPU使用程度,但是无法从性能使用程度的角度表达手机的CPU使用效率,就像前文所说,低频率时刻计算出CPU利用率=30%,和在CPU高频时刻计算出CPU利用率=30%。同样都是30%但性能消耗是完全不样的。规范化CPU利用率数值可以弥补这一缺点。目前的测试行业良莠不齐,规范指标较少,如果真的可以做到统一行业标准不失为一件好事。