2024年2月9日发(作者:)
第
42
卷 第
3
期制冷学报No/.
42,
No.
3June,
20272021年6月文章编号:0253-4339(2021)
03-0100-07Journa/
of
Refrigerationdoi:10. 3969/j.
issn.
0253-4339. 2021.
03.
100基于性能测试软件的服务器功耗实测研究徐鑫白雪莲金超强(重庆大学土木工程学院重庆400000)摘要数据中心节能和环境控制的基础是确定数据中心服务器的功耗。本文针对以CPU计算为主要任务的应用场景,搭建
实验台,利用Lookbusy,Stress,SPECpower_ssj
2008三种测试软件,结合服务器运行参数,对服务器功耗和硬件利用率等进行测试
分析,对比三种软件的应用效果。研究结果表明:不同测试软件对于服务器硬件资源的利用程度不同,导致服务器功耗也不同,
功耗最大差异超过15%,在服务器功耗模型的研究中,应当根据服务器应用场景和硬件利用率的差异选择不同的性能测试软件;
其中,SPECpower_ssj2008适合对服务器进行综合测试,而Stress适合测试服务器在极端情况下的运行稳定性。关键词
数据中心;服务器功耗;性能测试软件;CPU利用率中图分类号:TB61+1;TP31
文献标识码:AExperimental
Test
on
Server
Power
Consumption
Based
on
Performance
Testing
SoftwareXu
Xin
Bai
Xuelian Jin
Chaoqiang(School
of
Civil
Engineering,
Chongqing
University,
Chongqing,
400000,
China)Abstract
Determining
the
power
consumption
of
data
center
servers
is
the
basis
of
data
center
energy
saving
and
environmental
control.
At present,
it
is
a
common
research
method
that
uses
performance
testing
software
to
fit
the
server
power
consumption
model
under
different
working
conditions.
An
experimental
platform
was
built
with
the
aim
of
CPU
computing
as
the
main
task.
Three
different
test
software
(
Lookbusy,
Stress,
and
SPECpower_ssj
2008) were
used
to
conduct
the
test.
This
study
compared
the
differences
between
server
power
consumption
and
hardware
utilization
based
on
server
operating
parameters.
The
results
show
apparent
differences
in
server
hardware
calls
under
an
identical
parameter
setting
among
different
testing
software,
leading
to
a
maximum
deviation
of
more
than
15%
on
the
testing
outcome
of
the
server
power
consumption.
This
indicates
that
it
is
important
to
select
the
proper
performance
testing
software
according
to
application
scenarios
and hardware
utilization
when
it
comes
to
the
research
of
the
server
power
consumption
model.
Among
the
software
tested,
SPECpower_ssj
2008
is
most
suitable
for
the
comprehensive
testing
of
servers,
and
Stress
is
most
suitable
for
testing
the
stability
of
servers
under
extreme
ds
data
center
;
server
power
consumption
;
performance
testing
software
;
CPU
utilization过去的二十年,人们对于数据处理、存储和传输
需求不断增加,伴随着计算机和电子信息技术的同步
发展,数据中心行业爆发性增长。2018年中国数据
营成本和环境问题,相关行业也越来越重视数据中心
的节能工作。数据中心的总能耗由
IT(
information
technology
)
中心市场业务总规模为1
228亿元,占全球市场规模
的19.64%,总机架数为271.06万架,预计2021年,
中国数据中心市场规模将会达到2
769.
6亿元,增速
设备、空调系统、电源系统和附属设备等能耗组成。
IT设备能耗和空调系统能耗分别占总能耗的45%和
40%[4-5],是大部分数据中心的耗能大户。其中IT设
备的能耗主要由服务器、网络设备及配电设备组成,
超过30%,中国将成为世界数据资源大国和全球数
据中心[1]。数据中心能耗也逐年增加,2019年中国
数据中心总用电量为1
748亿kW-h,占全社会总用
其中服务器的能耗占IT设备总能耗的70%
~
80%⑷。服务器负责数据中心内部所有数据的计算、
电量的2.
4%⑷。数据中心的高能耗带来高昂的运基金项目:国家自然科学基金(51778080)资助项目。(The
project
was
supported
by
the
National
Natural
Science
Foundation
of
China
(
No.
51778080)
.)
处理及存储工作,是数据中心能源的主要消耗者,同收稿日期:2020-10-22;修回日期:2020-12-31
—100
—
第
42
卷 第
3
期Vol.
42,
No.
32021
年
6
月基于性能测试软件的服务器功耗实测研究June,
2021时也是数据中心空调系统负荷的主要来源。因此研
究服务器功耗模型对数据中心能耗预测具有重大意
SPECpower),以服务器的产热和散热作为分析依据,
认为服务器的功耗模型包括IT组件以及散热组件两
部分。R.
Kavanagh等[9]利用Stress程序,仅基于
CPU利用率来估算整个系统的功耗,利用线性回归
建立了功耗模型并提供了应用于虚拟机的模型。
义。在现有的研究中,通过性能测试软件对服务器进
行测试,从而拟合得到服务器功耗模型是常用的研究
方法。目前常用的性能测试软件有:Lookbusy、Stress
等Linux系统下的测试软件,以及SPEC
(
standard
Wang
Yewan等[10]利用服务器能效测试工具,考虑了
环境温度的影响,分析了服务器进风温度与功率增量
之间的关系。G.
Dhiman等[11]根据数据中心内部服
务器的工作状态,利用SPEC2000测试套件将服务器
performance
evaluation
corporation)标准性能评估组织
开发的针对高性能计算机的一系列测试套件。表1
中归纳了部分功耗模型及其测试软件等信息。R.
Basmadjian等[7]利用Lookbusy软件以CPU电压、频
功耗表示为基准功率和有功功率之和。A.
Kansal
等[12]以CPU利用率、LLC(last
level
cache)丢失次数
率、内存频率、硬盘读写速率以及风扇转速为变量建
立了针对塔式和机架式服务器的加法功耗模型。P.
Garraghan
等[8]利用
SPECpower_ssj
2008
(简称
以及读写字节数为变量,同时考虑CPU、硬盘等组件
的利用率,建立了功耗模型。表1服务器功耗模型Tab.1
Server
power
consumption
models作者^Server
—
功耗模型^Mainboard
+
i
-
1
j
—
1因素^Fan测试软件R.
Basmadjian
等[7]CPU电压及频率,内存频率,
+
厶
P1
PSUk
—
1硬盘读写速率,风扇转速LookbusyP.
Garraghan
等[8]PServer
=
PIT
+
m
Ppump +
乞
nPfanCPU利用率,CPU核心温度,
1
1风扇转速SPECpower_ssj2008EU_
Px
二
Host_Idle+(
Host_P-Host_Idle)R.
Kavanagh
等[9]EU
Util’x--------------------------X-'
EU Count
工一
EU
Util1
—
yCPU
利用率StressWang
Yewan
等[10]Pestimated
-
Pidle
+
"cPU%(
P100%
-
Pidle
)+Delta(
T)+
a1
T
+
CPU
利用率,
Delta(
T)二
T2服务器进风温度服务器性能测试工具G.
Dhiman
等[11]P
—
Pbaseb
+
P
tactiveCPU
利用率CPU
利用率,SPEC2000测试套件:mcf,gcc,mesa
和
gapSPEC
CPU2006
套件
A.
Kansal
等[12]Eps
=
aCPU
弘CPU
amem
弘mem
+
%
Udisk7LLC丢失次数和读写字节数和
IOmeterJin
Chaoqiang等[13]对现有功耗模型进行了统计
分析,结果表明CPU利用率是功耗模型中使用最广
泛的指标。并且在CPU密集型工作负载中,基于
择上较为随意,且目前尚无对于不同软件测试结果的
对比分析。服务器作为数据中心能源管理和热管理
的基本单元,其功耗直接决定数据中心的整体能耗和
CPU利用率建立的简单回归模型可以提供合理的预
空调系统的冷却负荷。
准确的服务器功耗模型可以
应用在服务器及其集群的能源管理和冷却系统的配
置管理中。基于服务器功耗模型和虚拟化技术,管理
测精度[10],说明在此应用场景中服务器功耗的主要
消费者为CPUo如表1所示,为了准确得到服务器的
功耗,研究者们利用不同测试软件,选取服务器不同
工作参数为变量,建立功耗模型。但在测试软件的选
者可以将工作负载分配到指定的服务器中,其他服务
器则可依据任务需求关闭电源或进入休眠模式,进而
—
101
—
第
42
卷 第
3
期制冷学报No/.
42,
No.
3June,
20272021
年
6
月Journa/
of
Re/rigeration减少服务器的总功耗[14]。数据中心冷却系统的供需
的负载类型也不同。如表2所示,服务器负载可分为
匹配是节约制冷能耗的关键,依据服务器功耗模型,
可以准确计算IT设备的冷却需求,保证其在所需的
环境中正常工作,并避免在设计和运行阶段中造成冷
却能力浪费。因此本文针对以CPU计算为主的应用
科学研究、数据分析、业务处理、云数据、可视化和音
频、通信及存储等类型⑴〕。在服务器执行不同的工
作任务时,对内部组件的要求和利用率也不同,这会
导致服务器功耗的差异。科学研究、数据分析等业务
场景搭建实验台,保持服务器进风温度恒定以避免
IT
设备热效应带来的误差,
利 用
Lookbusy、
Stress
和
SPECpower三款性能测试软件,分析不同测试软件造
成的服务器功耗差异及其影响因素。对于CPU的利用率较高,且随着CPU多核心、超线
程等技术的发展,服务器功耗必将快速增加。而通信
及存储业务的硬盘及I/O利用率高,但硬盘和I/O的
功耗占服务器总功耗的比例较低,功耗增长趋势也较
缓慢[15]。因此以CPU计算为主要应用场景的服务
器迅速发展,造成服务器整体功耗的增加,同时对数
据中心的制冷系统和供配电系统提出了严峻的挑战。1服务器负载及性能测试软件的分类1.
1服务器负载类型因不同行业对数据中心的业务要求不同,服务器
表2常见负载类型对IT设备的利用率[13]Tab.2
Common
load
types
utilization
of
IT
equipment[
13]负载类型CPU内存I/O硬盘低中科学研究数据分析业务处理高高中高低中中高中高中高中高中中中高低云数据可视化和音频中中低中低低中中低中低低通信存储中低低中中高1.
2性能测试软件Lookbusy和Stress为Linux系统的性能测试软
件,可以通过不同命令改变CPU、内存、I/0、硬盘等
组件的利用率,从而测试服务器的性能。负载计算对应的目标负载。因此,SPECpower的软件
利用率不能与Stress、Lookbusy软件一样代表CPU的
实际利用率,SPECpower软件利用率表示整个服务器
的目标负载与校准所得最大负载的比值。
SPEC是一个全球性的第三方非营利性组织,致
力于建立、维护和认证一套应用于计算机的标准化基
准评测套件。SPEC组织开发基准测试套件,在完成
SPECpower测试同样考虑了环境温度对于IT设备功
耗以及性能的影响,环境温度的测量是一份完整版测
试报告的必要条件。测试并经过检验后会在SPEC网站上公开测试结果。SPEC基准测试套件包含云、中央处理Java客户
端/服务器、存储、功率、虚拟化等。其中SPECpower
是业界第一个用于测量单节点和多节点服务器的性
能以及功耗的测试软件。由于服务器在绝大部分时
2实验设计实验平台分为测试服务器和控制主机,测试服务
器为一台
Dell
PowerEdge
R740
机架式服务器,
其配
间内都处于低负载运行状态,IT从业者采取了一系
列措施降低服务器处于低负载时的功耗。而
置规格如表3所示。控制主机为1台笔记本电脑,用
来向服务器发送指令并收集实验数据。测试主机和
控制主机之间利用网线通过
IPMI(
intelligent
platform
SPECpower采用了一种测试方法,可以测试各种系统
负载下的性能以及功耗从而衡量服务器工作的能效。
SPECpower与Lookbusy、Stress等软件的不同之处是
在确定服务器负载时,SPECpower会通过3次校准测
management
interface)智能平台管理端口连接,服务
器实验数据通过Zabbix监测系统以及Dell服务器自
带的
iDRAC
(
integrated
dell
remote
access
controller)
戴尔集成远程控制器进行收集。Zabbix系统每隔2
s
试确定该服务器的最大负载,然后根据校准得到最大
会自动采集并存储服务器的功耗数据,其精度为2
—102
—
第
42
卷
第
3
期2021年6月基于性能测试软件的服务器功耗实测研究Vol.
42,
No.
3June,
2021Wo
R.
Kavanagh等[16]发现由于IPMI的功率传感器
分辨率较低,会导致Zabbix系统的功耗监测数据和
控制主机功率计实测读数之间存在偏差。为检验IPMI读数
的准确性,在服务器侧安装了功率计,其测量范围为
温易r功勰测A生成报告0.5〜4
400
W,精度等级为1级,读取测试期间服务
器的平均功率与IPMI的功耗数据进行对比分析。同
时服务器进风侧也设置了
3枚K型热电偶记录服务
厦流电源器进风温度,测温范围为-40〜1
100
C
,误差±1.5
C,每10
s采集一次数据,保持服务器进风温度恒定
且处于标准推荐范围内,避免环境温度的大幅波动对
'功衬
I温度g感器
T
I蘿|
|网;各|
实验造成误差。在LookbusyA
Stress和SPECpower测
试期间,服务器进风平均温度分别为22.9
C、22.
1
C和23.
1
Co实验平台和实验流程如图1、图2
所示。表3测试服务器配置表Tab・3 Test
server
configuration项目规格CPUIntel
Xeon
R6130,2.
1Ghz,2
颗内存32
GBx2硬盘4
TB机械硬盘电源80PLUS
铂金
495
W图1实验平台Fig・1
Experimental
platform分别采用SPECpower^Lookbusy和Stress软件在
测试服务器上生成负载,负载范围为0%〜100%(以
10%为增量)o在实验过程中,Lookbusy和Stress软
件在每个负载水平下稳定运行5
min后改变工况;
SPECpower由软件自行完成一次测试。记录不同负
载下服务器的功耗、进风量、进风温度以及服务器的
|内存“------------彳负载*------------*
CPUs
测试主机|图2实验流程Fig・2
Experimental
flow工作参数。3实验结果分析3・1软件利用率和CPU利用率的关系图3所示为服务器CPU实际利用率与测试软件
利用率的差异。可以发现Lookbusy和Stress软件
CPU利用率的实测值和设置值基本一致,满足测试
要求。Lookbusy可以通过命令改变CPU的利用率,
其偏差在0.
8%以内。由于Stress只能启动整数个线
程,然后使用任务集将其映射到物理主机的CPU中。
因此在确定的CPU利用率所需要的线程数目不为整
数时,会存在偏差,但最大偏差在1.5%以内。
SPECpower的软件利用率与CPU实际利用率之间呈
二次多项式关系,其拟合多项式的相关指数R2二
0.
993,CPU的实际利用率的增量随SPECpower软件
利用率的升高而逐步增大。―■—
Lookbusy―•-
Stress▲
SPECpowerR2=0.99310
20
30
40
50
60
70
80
90
100
软件利用率/%图3软件利用率与CPU利用率的差异Fig・3
The
utilization
difference
between
software
and
CPU由于SPECpower软件的利用率同CPU利用率并
不相同,为确定相同CPU利用率下因测试软件不同—103
—
第42卷第3期制冷学报No/.
42,
No.
32021
年
6
月Journa/
of
Re/r,gerat,onJune,
2027造成的功耗差异,利用SPECpower利用率与CPU利
用率之间的关系,采用插值的方法获得某一确定
CPU利用率下的服务器功耗及其他工作参数。3・2服务器功耗与CPU利用率的关系图4所示为测试过程中功率计的读数与IPMI监
测的功耗数据的差异。可以发现,在服务器处于低负
载时,IPMI数据与功率计读数偏差较大,最大可达
10%。
二者差异
随 CPU
利用率的增长先降低后升
高。在服务器CPU利用率为40%
-
80%时,IPMI和
功率计的功耗数据基本吻合,偏差在5%之内,最小
仅为0.
38%o随服务器CPU利用率的继续增长,二
者偏差略微上升,在CPU满载时IPMI和功率计的偏
差为4%o虽然IPMI功耗传感器分辨率较低,导致
二者监测数据存在偏差,但IPMI监测数据的偏差对
三款测试软件造成的影响基本一致,且在数据中心内
部利用直连功率计确定每台服务器的功耗是不现实
的,IPMI数据也更易获取和收集。因此在不同工况
的对比测试中使用IPMI数据进行分析和讨论是完全
可行的。亠
SPECpower(IPMI)〜SPECpower1luu
on0-----
10-----------
20-----------
30-----------
40-----------
50-----------
60-----------
70---------
80—
90------------
100CPU利用率/%图4
IPMI与功率计读数差异Fig・4
The
reading
difference
of
IPMI
and
power
meter服务器功耗随CPU利用率的变化如图5所示。
实验开始前服务器的待机功耗为156
W,约占满载功
耗的50%o实验过程中服务器功耗随CPU利用率的
增长逐步趋于平缓。
但在相同
CPU
利用率下服务器
的功耗随负载软件的不同而存在较大差异,除待机工
况外‘Stress软件的测试功耗最高,SPECpower次之,
Lookbusy软件测试功耗最低。在CPU利用率为
100%时,Lookbusy
功耗为
286
W,为 SPECpower
软件
测试满载功耗313
W的91.
4%,Stress软件测试满载
功耗338
W的84.
6%o可以发现,即使负载软件的
选择不同,但服务器功耗随CPU利用率变化的整体
趋势是一致的。相同CPU利用率下服务器功耗的差
异是由服务器工作参数的不同所导致。为了确定不同测试软件造成的服务器功耗差异,
—104
—图5服务器功耗随CPU利用率的变化Fig.5
Server
power
consumption
changes withCPU
utilization对负载稳定时服务器的平均进风量、CPU平均温度
及服务器其他组件利用率随CPU利用率的变化进行
分析。如图6所示,在进风温度稳定的状态下,
SPECpower和Lookbusy的实验过程中服务器的风量
约为109
m3/h,且全程基本保持稳定;Stress软件在
实验过程中服务器的进风量随CPU利用率和温度的
变化而改变,在CPU利用率大于30%后,因CPU温
度剧烈上升至80
C
,导致服务器的进风量和风扇功
耗显著增加。耒(旦、*垢r即图6服务器进风量随CPU利用率的变化Fig.6
Server
air
intake
changes with
CPU
utilization图7所示为服务器CPU温度随CPU利用率的
变化情况,在3组实验中服务器CPU的温度并不相
同。而服务器CPU的温度越高,其能耗也越大,且
CPU的温度不仅影响服务器的进风量,也会产生较
大的泄漏电流,导致能源的浪费。有研究表明,当芯
片温度达到85
C时,无效的漏电占CPU总耗电的一
半。因此CPU温度的不同也是导致测试功耗不同的
原因之一。减少泄漏电流的有效方法是降低芯片温
度,通过冷却降低芯片温度,可以有效减少漏电部分
损失,大幅度减少泄露电流,从而很大程度上降低芯
第42卷第3期2021
年
6
月基于性能测试软件的服务器功耗实测研究Vol.
42,
No.
3June,
2021片的耗电量,提高信号等电子传送效率[4]o但大幅
度降低IT设备电子元件的工作温度,势必会引起冷
却系统能耗的增加,因此需要在保证IT设备高效工
作的前提下,降低冷却能耗,达到数据中心整体能效
的最优化。90—Lookbusy•
Stress®oJ80Bgndu10
20
30
40
50
60
70
80
90
100
CPU利用率/%图7服务器CPU温度随CPU利用率的变化Fig・7
Server
CPU
temperature
changes
with
CPU
utilization因服务器的主要负载是CPU计算,且在实验过
程中I/O读写速率均未超过50
KB/sec,其产生的功
耗差距可以忽略不计。而对于内存而言,不同负载软
件所调用的内存大小差异明显,实验过程中内存利用
率随CPU利用率的变化如图8所示。在Lookbusy和
Stress实验中,内存利用率全程均稳定在5%,而在
SPECpower实验中,服务器内存利用率则全程稳定在
71%o
根据每个通道
DIMM(
dual
inline
memory
modules)
的数目、容量及运行频率,内存条的功率通常在
4~15
W之间[17]o在测试过程中,服务器内存利用
率不随CPU利用率的变化而改变,即内存功率为定
值。因此测试软件对于内存的利用程度会对服务器
的稳定功耗产生一定影响。
但在以 CPU
计算为主要
应用场景时,不同工况时服务器进风量与CPU温度
之间的差异对于服务器功耗变化所造成的影响更大。在三组实验中‘Stress软件测试功耗明显高于其余
两款的原因是Stress作为Linux压力测试软件,会对服
务器运行的稳定性提出更高要求,检验服务器在CPU
温度升高时风量能否匹配,服务器能否正常运行。因
此,在利用Stress软件进行测试时,CPU温度更高,而
更高的CPU温度会导致更大的泄露电流和服务器风
扇功耗。虽然Stress软件对于内存利用率较低,但是
在以CPU计算为主的应用场景中,CPU的功耗和风扇
的功耗均大于内存。而Lookbusy和SPECpower软件
实验中服务器的进风量保持恒定,其功耗差异产生的
原因是SPECpower作为综合负载测试软件,会根据服
务器的硬件配置确定最大负载,对各组件均进行调用,—Lookbusy
—^Stress—SPECpower10
20
30
40
50
60
70
80
90
100
CPU利用率/%图8服务器内存随CPU利用率的变化Fig・8
Server
memory
changes
with
CPU
utilization而不仅限于CPUo在SPECpower实验中CPU温度更
高,其泄漏电流和功耗都更大,且SPEC可以调用71%
的内存执行任务,也会增加一部分功耗,导致服务器的
整体能耗高于
Lookbusy
实验工况。4结论本文利用
Lookbusy、Stress、SPEC
power
三种测试
软件,研究了在以CPU计算为主的应用场景中,测试
软件不同导致的服务器功耗差异及其原因,得到结论
如下:1)
随服务器负载水平的不同,IPMI监测数据与
功率计读数的偏差也不同。当服务器CPU利用率低
于30%或高于90%时,偏差较大,最高可达10%o虽
然IPMI功耗传感器分辨率低,但其对测试软件的影
响趋势基本一致且更易获取,因此在进行不同工况的
对比时仍然可采用IPMI功耗数据进行分析。2)
不同的性能测试软件对于服务器硬件资源的
利用程度不同,导致服务器各部件的利用率、温度均
不同,因此服务器的整体功耗也不同。在CPU利用
率为100%时,Lookbusy和SPECpower软件的功耗偏
差会达到15.4%。在选取测试软件时,SPECpower软
件会综合考虑服务器硬件水平,对服务器各组件均施
加相应负载,因此当服务器应用场景不唯一,对硬件
资源调用程度更全面时,使用SPECpower软件的测
试结果更准确。而Stress软件,更适合测试服务器在
极端工况下的运行稳定性。3)
在以CPU计算为主要应用场景的服务器中,
功耗差异一般是由CPU温度和服务器进风量的差异
导致,且二者存在相互关系。降低CPU温度会大幅
度减少泄漏电流,但需要更大的进风量,而更大的进
风量会增加风扇功耗。因此需要综合考虑,在保证服
务器稳定运行的前提下,使其整体能耗最低。—
105
—
第42卷第3期制冷学报No/.
42,
No.
3June,
20272021
年
6
月Journa/
of
Refrigeration本文受重庆市技术创新与应用发展项目(cstc2020jscx-
msxmX0184
)资助。(The
project
was
supported
by
the
Utility
and
Cloud
Computing.
Shanghai,
2016:
11-19.[
9]
KAVANAGH
R,
DJEMAME
K.
Rapid
and
accurate
energy
models
through
calibration with
IPMI
and
RAPL[
J]
.
ConChongqing
Technology
Innovation
and
Application
Development
(
No.
cstc2020jscx-msxmX0184)
.)参考文献currency
and
Computation:
Practice
and
Experience,
2019,
31(13)
.[10]
WANG
Yewan,
NORTERSHAUSER
D,
MASSON
S
L,
et
al.
An
empirical
study
of
power
characterization
approaches
[1]
殷平.数据中心研究(1):现状与问题分析[J].暖通空
调,2016,
46(8)
:
42-53.
(YIN
Ping.
Research
on
data
centers
(
1
)
:
current
situation
and
problem
analysis
[
J]
.
for
servers
[
C]
//The
Ninth
International
Conference
on
Smart
Grids,
Green
Communications
and
IT
Energy-aware
Journal
of
HV
&
AC,2016,
46(8)
:
42-53.)[2]
科智咨询.2018—2019年中国IDC产业发展研究报告
[R/OL].
(2019-05-15)
[2020-08-15].
http:
//-
quan.
com/Special/2019baogao/.
html.
(
Kezhi
consulting.
2018—2019
China
IDC
industry
development
research
report[R/OL].
(2019-05-15)
[
2020-08-15].
http:
//
/Special/2019baogao/.html.)[3]
国务院发展研究中心国际技术经济研究所.中国云计
算产业发展白皮书[R/OL].
(2019-10-13)
[
2020-0815
].
http://www.
drciite.
org/Home/Detail/4?
type
=
10&nid
=
4831.
html.
(
The
institute
of
international
technology
and
economy
of
development
research
center
of
the
state
council.
White
paper
on
China'
s
cloud
computing
industry
development
[
R/OL].
(
2019-10-13
)
[
2020-0815
].
http://www.
drciite.
org/Home/Detail/4?
type
=
10&nid
=
.)[4]
中国制冷学会数据中心冷却工作组.中国数据中心冷
却技术年度发展研究报告2019[R].北京:中国建筑工
业岀版社,2020.
(
Data center
cooling
technical
committee
of
CAR.
Annual
reports
on
research
and
development
of
data
center
cooling
technologies
2019
[
R]
.
Beijing:
China
Architecture
&
Building
Press,
2020.)[5]
朱万朋,马国远,李翠翠,等.数据中心自然冷却用泵
驱动两相回路系统火用分析[J].制冷学报,2019,
40
(3):
24-30.
(
ZHU Wanpeng,
MA
Guoyuan,
LI
Cuicui,
et
al.
Exergy
analysis
of
pump-driven
two-phase
loop
system
for
free
cooling
in
data
centers
[
J
]
.
Journal
of
Refrigeration,
2019,
40(
3)
:
24-30.)[6]
CHEUNG
H,
WANG
Shengwei,
ZHUANG Chaoqun,
et
al.
A
simplified
power
consumption
model
of
information
technology
(
IT)
equipment
in data
centers
for
energy
system
real-time
dynamic
simulation
[
J]
.
Applied
Energy,
2018,
222:
329-342.[7]
BASMADJIAN
R,
ALI
N,
NIEDERMEIER
F,
et
al.
A
methodology
to
predict
the
power
consumption
of
servers
in
data
centers[
C
]//Proceedings
of
the
International
Conference
on
Energy-efficient
Computing
&
Networking,
2011:
1-10.[8]
GARRAGHAN
P, Al-ANII
Y,
SUMMERS
J,
et
al.
A
unified
model
for
holistic
power
usage
in
cloud
datacenter
servers
[
C
]
//9th
IEEE/ACM
International
Conference
on—106
—Technologies.
Greece,
2019:
1-6.[11]
DHIMAN
G,
MIHIC
K,
ROSING
T.
A system
for
online
power
prediction
in
virtualized
environments
using
Gaussian
mixture
models
[C]
//Design
Automation
Conference.
Anaheim
IEEE,
2010:
807-812.[ 12]
KANSAL
A,
ZHAO
Feng,
LIU
Jie,
et
al.
Virtual
machine
power
metering
and
provisioning
[
C ]//Proceedings
of
the
1st
ACM
symposium
on
Cloud
Computing.
Indianapolis,
2010:
39-50.[ 13]
JIN
Chaoqiang,
BAI
Xuelian,
YANG
Chao,
et
al.
A
review
of
power
consumption
models
of
servers
in
data
cen-
ters[
J]
.
Applied
Energy,
2020,
265:
114806.[ 14]
PERUMAL
V,
SUBBIAH
S.
Power-conservative
server
consolidation
based
resource
management
in
cloud
[
J]
.
International
Journal
of
Network
Management,
2014,
24(
6)
:
415-432.[15]
安娅楠.基于服务器功耗模型的数据中心热环境研究[D].
重庆:重庆大学,
2019.
(
AN
Yanan.
Research
on
data
center
thermal
environment based
on
server
power
consumption
model
[
D].
Chongqing:
Chongqing
University,
2019.)[16]
KAVANAGH
R,
ARMSTRONG
D, DJEMAME
K.
Accuracy
of
energy
model
calibration
with
IPMI[
C]//IEEE
9th
International
Conference
on
Cloud
Computing
(
CLOUD)
.
San
Francisco,
2016:
648-655.[17]
BROCHARD
L,
KAMATH
V,
CORBALAN
J,
et
al.
Energy-efficient
computing
and
data
centers
[
M
]
.
Hoboken:
John
Wiley
&
Sons,
Inc,
2019.通信作者简介白雪莲,女,教授,博士生导师,重庆大学土木工程学院,
159****6696,E-mail:xuelianbai@
。研究方向:暖通
空调理论与技术、建筑节能与绿色建筑、数据中心热环境与能
源管理、文物保存环境监测与控制。About
the
corresponding
authorBai
Xuelian,
female,
professor,
Ph.
D.
supervisor,
School
of
Civil
Engineering,
Chongqing
University,
+
86
159****6696,
E-mail:
xuelianbai@
.
cn.
Research
fields:
HVAC
theory
and
technology,
building
energy
efficiency
and
green
building,
data
center
thermal
environment
and
energy
management,
environmental
monitoring
and
control
of
cultural
relic
preservation.
发布评论