加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 运营中心 > 产品 > 正文

【IDCC2020】浪潮信息数据中心事业部研发负责人殷飞平:模块化浸没式液冷数据中心构建

发布时间:2020-12-13 14:06:28 所属栏目:产品 来源:网络整理
导读:2020年12月8日-10日,第十五届中国IDC产业年度大典在北京国家会议中心正式召开。作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。以
副标题[/!--empirenews.page--]

2020年12月8日-10日,第十五届中国IDC产业年度大典在北京国家会议中心正式召开。作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营­­商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。以“数据中心新技术与应用”为主题的分论坛于10日举行,浪潮信息数据中心事业部研发负责人殷飞平做了题为《模块化浸没式液冷数据中心构建》的精彩分享。

殷飞平

各位领导,各位专家,各位业界朋友,非常感谢在IDC圈给我这个机会,我现在是有机会跟大家分享一下我们浸没式液冷DC领域的积累和成果。

我昨天碰到了一个朋友,他说我发现你讲的浸没式数据中心和头部厂家做的那些有什么区别呢?我跟他讲,我这个在浸没式这一块里面差别不是很大,但是肯定是还是有差别的,因为我们有自己的架构和理解在里面。但是又有明显的不同,就是模块化,我们把液冷DC按照模块化,一个一个模块来源进行设计和进行建设交付,给业务使用的,这是一个非常大的不同。他又说那你是不是适合边缘计算这块?我说讲的对,我们就是适合边缘计算,边缘计算就是你给电和网络,我们可以很快就可以用了。在边缘计算这一块,对于我们液冷技术来说可能就是从机柜,等同于机柜的数量来说只有几个机柜,这个方面来讲,它是不是边缘场景的,我们觉得除了边缘场景之外还有别的场景,一个不一样的地方,我这个支持高功率,现在液冷支持2000瓦到3000瓦,普通的支持不了这么大的,这个增强了我们的高功率场景。

除了这个之外,我们和头部企业作为液冷来说有两个比较大的不同,它们是属于功率比较大,是自己有资金,自己的架构,自己有实力。第二个不同,它自己用。这两个都是不一样的,我们不是自己用的,是模块化、标准化到液冷里面去的,我们给客户用的。

这是头部企业在液冷大规模使用场景中,这意味着我们做的产品又增加了一个应用场景,大规模、云计算。我们的模块化后面可能会看到,我们形成一个大型的液冷模块化数据中心。

这些年在数据中心领域还是进步很大,在我印象当中多少年前,一般来说2.0都是蛮高的,现在的标准也有完善,也有不少的改进和进步,现在的速度在以前的痛点基础上是进步了。我们现在有痛点吗?仍然有,现在对设备领域有很多仍然在路上,没有最好,只有更好,无论是标准还是架构设计,还是建设,都会是一个持续进步的领域。我这边先讲痛点,有痛点释放了需求,有需求会拉动技术进步,整个生态的建设,整个速度的变化,从而达到新的起点到终点的循环过程。

讲到痛点过后对应同样要进行技术进步,只有技术进步了,当然除了技术之外还有其它的方面一起推动,使这个产业持续的迭代前进。

第三点,我今天主要分享给大家的就是模块化液冷数据中心的建,我们在数据中心领域耕耘了很多年,特别在新兴技术方面还是有独特的优势,我今天只讲浸没式,还是持续的研究,这个技术形态应该说是未来有很大的发展前景。

最后,简单的讲一下开发和实践,最后讲的比较简单,因为可能有很多东西是时间原因和其它原因不太适合详细讲,但是你们看到我们的图片和架构设计基本就了解到我们想做的东西是什么样子,它是怎么实现我们想做的模块化模式。

第一个痛点是PUE。一般来说像现在讲的PUE,1.6、1.4、1.2,这个发展应该说是很快,我感觉几年时间。PUE从2.0算,这个跨度是效果进步非常大的,非常好的。这个产业里面这些年下来大家很淡定,很坦然的走到这一步,没有感觉有什么特别的地方。不光是产品,冷却系统和标准,或者其它的各个方面都会走到今天,这是1.2。我是做技术的,我想原来基本是1.1的,现在只要四分之一的不是很大的进步吗?大家感觉反响不是特别强烈,我觉得很重要的原因就是在技术方面可能由原来的技术1.5到1.8,但是没有跨代,你仍然离不开压缩机、制冷,冷却这些方面。原来做空调的有压缩机,现在技术进步之后还是离不开压缩机,可能到现在是设计的厂家基本上可以延伸下来,无非是冷源的使用,做到更低。从这个方面来讲,大家对目前的浸没式比较淡定。如果走到1.2或者1.25,就意味着1.2是基本的门槛。如果压缩机的发展可能再往上。我这里写了1.1,我认为1.1这个指标是非常标志性的指标,可以这样说,如果要低于这个数据,那么你可能就是压缩机,如果用压缩机制冷很难做到1.1。低于1.1和目前的1.2几,大家可以想像一下,什么意思呢?1.2相当于用20%几的辅助电能维持正常的运转,而现在低于这个数就意味着百分之几的辅助电能来工作,考虑到效率,我认为这是非常优秀的速度。

要做到这个PUE指标,你肯定要在几个方面做跨代的变化,我们讲的可能是冷却或者其它的,特别在冷却系统肯定是2.0的,应该是具有颠覆性的或者变革性的。用低于10%的电能消耗保证它的正常运转,我觉得这是非常优秀的。如果再讲其它的,我觉得不用讲,从一个门槛低于1.1是一个方向或者比较大的挑战,它会导致你的整个标准,架构设计、运维、设备、生态都会产生非常大的变化。所以这个数非常有代表意义。我用百分之几的电能维持设备运营的话,省下的电,我们之前也设计过很多,基本用电量非常巨大,动不动就是100兆瓦,或者30多兆瓦,100兆瓦算低于10%就是几兆就可以维持运行,如果不是这个指标,你肯定就要20几兆瓦才能维持运行。其实几十兆瓦这么大的耗量电,如果在民生领域能够支撑多少个家庭的日常用电,大家可以自己算。我们希望能源用在最有效率上,尽可能减少效率消耗。

第二个节能,我听到最多的讲的还是数字运营领域的节能。这个肯定是需要讲的,因为这个讲是看PUE零点几的,能够从砍到1.2级,能不能砍到1.1?这个是分子上面的,能源领域最要做的工作。这个还是在设备领域,否则像位置点不一样,或者服务器能耗比较差的情况下,不能体现出它真正的计算效率的实际水平。

省电也是一个配置,我们现在都是耗电很大的,一般往很偏的地方建,便宜,或者谈判的溢价能力很强,能拿到很便宜的电,但是因为省钱,对企业来说是获利了,但是实际上数据中心能耗方面应该说是另外一个考虑了,我们有这个方面得到实际的意义。但是数据中心耗电是肯定的,能源价格还是有一定变化的。

同样在冷却领域,我后面会自然想到表述浸没式方面。

(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读