机房360首页
当前位置:首页 » 数据中心 » 过去50年数据中心行业所经历的不断的变化

过去50年数据中心行业所经历的不断的变化

来源:机房360 作者:litao984lt编译 更新时间:2016/4/25 9:31:36

摘要:在Computer Weekly准备庆祝其成立五十周年之际,我们将为您回顾一下在过去的五十年间,整个数据中心行业的设计及其所发挥的作用是如何变迁的。

  该文件为数据中心的IT设备在较高温度下运行提出了令人信服的理由,因为这将减少机械设备冷却的需要,并反过来,进一步降低所需的电力资源的消耗的量。

  “2004年,20°C至22°C的服务器入口温度是数据中心的规范,但是,在ASHRAE做了相应的推广工作之后——普遍推荐的温度范围现在则为18°C到27°C之间。”芬奇说。

  “通过使设备的运行温度范围更广泛,您企业不再需要配备专门的工程基础设施,以保持这些设备在较低的温度下运行了,这也显著提升了能源效率。”

  实现设计标准化

  数据中心运营商们一直对于让他们的设备处于高温状态运行保持谨慎的态度,怕这样做会增加数据中心的硬件故障的风险。但采用冷热通道密封,则允许他们得以防止这一点,并能够更有效地管理自己的数据中心站点了。

  在过去,谨防数据中心的设施运行过热的唯一办法就是从地板输入冷空气,使其能够在各个机柜之间流通,以便使得整个数据处理大厅获益,芬奇说。而冷热通道密封方法的引入,大大减少了,甚至在某些情况下消除了数据中心机械设备冷却的需要。

  TC 9.9的引进,已经对整个数据中心行业产生了极其深远的影响,芬奇补充说,而随着硬件制造商们希望调整其技术的设计,以匹配这一指导意见,TC 9.9还将会在未来多年内继续发挥其影响力。

  他说:“他们可能会达到一个临界点,然后就无法再近一步提升设备的操作温度了。毕竟,这将是有限的。也许,这是由服务器内部的处理器技术或其他一些内部组件所决定的。”他说。

  “但在可预见的将来,我可以看到数据中心设备的操作温度将近一步的继续提升,这主要是由可持续发展的需求和提升能源效率而推动的,而且这一举措也将对数据中心的运营成本产生巨大的影响。”

  回顾过去

  在数据中心诞生的初期,彼时,其尚未有“数据中心”这一专业术语。其设备被要求推动建立高水平的冗余性和弹性,这在很大程度上要依赖于大量的人工体力劳动来保持相关设施的运转,这意味着效率方面的需要经常要让位靠边站。

  即便如此,试图保持早期大型机运行的敏锐性、并确保其长时间的运行往往也是一个很高的要求,据Uptime Institute的特纳基于自己在上世纪60年代在他所工作的大学校园的工作经验回忆说。

  “我在那里工作时,在计算机中心发布的最常见的同志告示便是:电脑今天坏了”。他笑着说。

  “在过去,如果一名主机操作员能保持一整个轮班系统的正常运行的话,他们就会被认为是当地的英雄。”他补充道。

  但是,在当年,这个世界是以不同速度运行着的,这一点则是特纳通过对于60年代的数据中心运营状况的观察,所获得的另一点感受。

  “在我曾经长大的地方,有一幢看上去像一座由三层混凝土砌块所建起来的建筑——这是一家大区域银行的一处数据处理中心。彼时,还没有网络可言,所以在晚上,都会有大量来自该地区的各个分行装载着纸张文件的卡车到达该数据处理中心。”他说。

  “通过一夜通宵的时间,这几大卡车的纸张文件将被处理,这些数据将被压缩粉碎,并将创建打印输出新的单据,然后他们会将这些文件单据发送回到各个分行,以便他们能够在早上上班时打开。我从来没有进去过该数据处理中心,但我知道其是如何工作的。”

  市场调研机构451 Research的副总裁安德鲁·劳伦斯表示说,在上世纪70年代和80年代,大多数选择拥有并经营自己的IT硬件的中等、大型规模的企业组织都曾经经历过特纳所描述的在大型机方面的经验,在当时,这项技术往往是困难的,而且属于劳动密集型的运行设备。

  “在当时,所谓的’机房’,也即今天的数据中心的前身,通常就是安置了几台大机器的房子。”他说。

  “到了上世纪80年代,许多企业想退出电脑操作,但这是在托管出现之前。他们要么支付给其他企业来帮助他们托管他们的应用程序,要么把所有的大的计算需求统统外包出去。”

  与此同时,随着大型主机技术稳定性的提高,在90%的区域内实现更高的硬件的利用率,而如果不这样做,可能会面临来自高层监管的处分,特纳称。

  然而,随着PC和服务器计算时代的到来,这个概念似乎又为IT世界创造了一系列新的问题。

  “企业组织想缩小他们IT的规模,但在小型机和PC革命却真的意味着他们打了败仗。无论他们做了什么,在企业内部的IT开支都在不断的一涨再涨。”劳伦斯说。

  特纳补充说,在大型主机时代,企业组织IT部门的大量最佳实践做法都纷纷被抛弃了。

  “随着越来越多的业务应用程序从大型主机转移到了服务器,它们逃脱IT部门的官僚作风,以及与部署新的应用程序相关的漫长的周期。”特纳说。

  “很大一部分的大型主机被分配到维护数据的纯度和预防损坏的信息被存储。所有这一切都被服务器世界所丢在了后面。”

  特纳声称,大约正是在2006年Uptime Institute的首次IT用户研讨会召开左右的时间,IT用户们已经开始被服务器的硬件故障和不断上升的IT成本双重麻烦弄得焦头烂额,使得他们再次开始密切的关注如何从他们的投资获得更多回报。

  因此,也就是在这段时间,服务器虚拟化的概念获得热捧,以便能够提高硬件的利用率,从而允许企业组织能够采取相应的措施,以缩减其数据中心的占用空间。

  特纳说:“我们会说,其与大型主机所经历的情况几乎是完全一样的,除了我们曾经将其称之为逻辑分区,而不是虚拟实例,但这确实是一样的。

  “通过将应用程序实施合理的虚拟化,我们在一些案例中看到,多处数据中心的功耗,占地空间和冷却需求减少了多达80%。”

  提高数据中心的标准

  虽然说远离大型主机的转变与其本身不是没有问题的这一说法,还算较为合理是,但在上世纪90年代,标准机架和服务器的兴起,对数据中心的设计无疑产生了一个革命性的影响。

  “这就意味着,全世界的数据中心的设计和操作运营都将以同样的方式进行,而供应商们则可以通过采用标准化的“U”型机架来节省巨大的成本。这也有助于连接性和空气流通。”特纳说。

  “在上世纪90年代的商业互联网的迅速发展是前向迈进的另一大步,因为这使得任何企业都能够连接到任何客户,员工或合作伙伴,而无需铺设昂贵的连接。这反过来,使托管和托管公司来接管企业的IT运营更容易。”

本文地址:http://www.jifang360.com/news/2016425/n630381054.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片