加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 运营中心 > 产品 > 正文

【IDCC2019】对话:液冷数据中心的未来

发布时间:2019-12-23 08:26:57 所属栏目:产品 来源:中国IDC圈
导读:副标题#e# 2019年12月19日,第十四届中国IDC产业年度大典(IDCC2019)数据中心技术论坛在北京国家会议中心举行。IDCC2019作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政

朱亮:其实提到这个问题,这是一个比较或者比较大的问题,而对于我们3M来讲,我们认为未来应该讲,现在液冷的时代已经到来了,因为其实通过今天上午阿里巴巴任华华的演讲,我们已经在去年跟阿里巴巴一起共同合作,在阿里的一个张北数据中心做了成功的液冷服务器集群,所以说我们认为现在液冷时代已经到来,而且随着大数据、随着芯片功率密度的增加,随着边缘计算的到来,我相信这种发展速度是非常快的。  

王建新:请其他嘉宾发表一下意见。  

汪斌强:从我们公司最近三年在喷淋液实现领域来看,大家对液冷的诉求可以说真是与日俱增。我举一个简单的例子,去年的时候,到我们公司来考察的单位大概有二十几家,今年到我们公司来考察的单位是530多家,上个周六一天就来了6家,并且他们都是确实有这方面的需求,通过IDC年会、各种会议知道这个东西以后,大家对这个东西是有了相应的了解。我的预测,一个新的技术,什么时候是它的爆发时期?我感觉到是不用这个确实是不行了,这个时候我想就会产生一个爆发期。怎么预测?就根据芯片的发展历程,我预测大概是在2021年的7月份,也就是英特尔推出新一系列芯片的开始,我觉得这个时候不用液冷没有其他的技术,这个时候就会发展起来。但是我们前面要做好准备,液冷这个东西说起来似乎没有什么东西,本身我们做这个东西就是一个导热性能好,完了以后又不导电,绝缘的东西。真正工程实验中发现,为什么说要发挥大国的工匠精神,把一个东西从能用变成好用,再变成大家想用,这个过程确实不容易。瑞士军刀比我们的刀好在什么地方?是比我们刀漂亮还是摸着舒服?还是比我们的刀快?像曙光老大哥做八年多了,快九年了,你说八年多、九年也不是闹着玩的,也不是搞了一帮没用的人在那儿天天闹着玩,不是吃干饭的,这么长时间的沉淀肯定有本质上的很多东西。我们国家在前期付出这么多,多的十来年,少的三五年,我觉得是值得的。未来3年内,我觉得液冷会迎来一个爆炸式的发展期。谢谢大家!  

沈卫东:主持人的问题是液冷在IDC领域未来的发展。我不在IDC圈已经很多年了,我是2010年进入超算这个圈,超算是超级计算或者叫高性能计算,这个领域方向和IDC不太一样,应该说是计算机的两个分支,超级计算的应用是科学计算,只是计算,IDC的应用我猜测应该叫数据处理,或者叫商务计算,所以是两个分支。做服务器的时候,商务计算实际上是科学计算的分支,,因为第一台计算机1946年美国国防部的应用就是科技计算。30年之后,1976年乔布斯发明出了第一台个人计算机。IT发展之后,这个行业的主要应用就转到IT应用里面去了。超级计算是比较小的市场细分,但是需求不一样,因为超算的应用在科学计算里面,而科学计算计算能力的追求是无止境的,要解决一个问题就一定要算得快,如果我想算到今天下午3点钟的天气温度一定要比十年前的计算机快几十倍、上百倍。所以我们说超算是国之重器就是这个概念,实际上以前全球各国都会集一国之力,每两年、三年就造一台超级计算机,我们国家也是每两三年造一台大的计算机。全球有超算组织去评计算机的能力,所以实际上在十年前,2010年之前一直是美国每两三年搞一个全球最快的计算机,2010年至今是中美之间的互相较劲,你保持两年,我保持两年,我预测未来应该是中国。我是2010年进入曙光,进入曙光第一个任务是开发曙光6000计算机的冷却系统,当时交给我的任务是我的计算机,实际上形态上是刀片服务器,刀片服务器装机以后的单机柜的热负荷是30千瓦,2010年当时全球的空调厂商是解决不了单机柜30千瓦的制冷能力的,所以我们成立了基础设施事业部是解决这个问题,是解决自己的计算机30千瓦冷却散热的问题。2010年解决之后,我们“星云”获得了全球第二。  

到2011年开发下一代计算机,服务器部门提出来我们要重新设计,要更加高的设备密度,单机柜可能达到45千瓦。后来我跟老板摊牌,我说你要么换介质,要么换人,我干不了。我们讲科学,空气到一定程度以后,物理特性的极限就到了。所以到2011年之后我们就开始转入服务器液冷的研究,到2014年开发了冷板式的单机柜可以到45千瓦的服务器。到今年我们刚刚部署完的单机柜160千瓦的制冷需求的服务器。我们看到未来计算机能力的发展,一个是基于CPU计算能力的发展,一个是连接更多的计算节点,但是有一个前提是瓶颈,是网络的瓶颈,所以要求我们计算节点之间,十年前的那台计算机占据了会场这么大的一个房间,现在的计算机还是这么大,因为通讯已经成为瓶颈。意味着我们只能往一起堆,现在一个主板是八个GPU,GPU比CPU的功耗还要大,不远的未来,下一代会到300千瓦一个机柜,300千瓦机柜可能是液冷的极限。

我只谈我们超算领域,超算领域我能看到的未来,可能在3年之内达到300千瓦。我也很高兴在超算领域的先进技术能够应用到IDC领域,谢谢大家。  

王晨:液冷时代现在确实是已经到来,但是从长期来说,应该还是风冷和液冷共同存在的场面会维持比较长的时间,这是我个人的看法。谢谢。  

王建新:阿里上午也讲了,主要是浸没式,汪总这边用的是风冷式,刚才沈总讲了,在超算行业也是践行了液冷好多年了。我想问一下,如果我们扩展来看,IDC行业、超算行业,还有上午讲到边缘计算、移动计算,不同的行业对未来的计算量的产生都可能会用到液冷,陆海空三种不同的行业怎么适配的?或者哪种方式适合哪种行业?喷淋式适合哪个行业?  

汪斌强:规模不大的时候我觉得用哪种技术都可以,但是规模大了以后就要看在实际应用中出现一些什么问题,怎么解决,冷板最早用的就是超算,因为超算的核心计算芯片集中热量要把它散出去,用冷板更简洁方便。现在各个领域应用的规模都不大,基本上都是在探索、摸索阶段。比如就我们这个公司的喷淋,目前在四个领域都在做。一个是数据中心,再就是边缘计算,再就是超算,还有一个是5G的基站,这四个领域都在做。数据中心我们公司做得早一点,大概2016年就开始做了,目前规模最大的就是40个机架,上百个机架,现在在深圳那边有几家跟腾讯、中兴合作通过了能评,大概有400、200个机架,但是还没有建设。前面的测试就是50个机架以下,有20个机架、40个机架,也有十几个机架的。用的时间最长的就是在上海复旦大学有一个安全实验数据场,这里用了16个机架,已经用了一年半,但是在用的过程中有出现了一些问题,在工程中不断优化和解决。  

(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读