这个问题,就如《纽约时报》在其之前发表的一篇文章中指出的那样:所有的硬件都在加大马力全力运作,甚至包括工业冷却设备和备用柴油发电机排放到大气中废气和其他污染物。同时,即使数据中心运营商持续奖励那些节能措施,连续正常运行时间超过其能源效率的运作经常在满功率运行,但仍然有许多服务器明显处于闲置状态或明显未充分利用。
随着数据量的不断增长,也将由此产生相当数量的数据中心带来的污染。这一点,正如《纽约时报》所一针见血的报道的那样,明显与信息产业的时尚、高效率和环保的形象不符。
我并不完全同意这一评估。是的,云计算时代的数据中心确实明显比之前的一个普通的家庭甚至是大的城市公寓大楼制造了更严重的污染。但总体而言(即使《纽约时报》也认可)所有的数据中心所消耗的国家的能源资源仅为2%。而且,我们还有很长的路要走,数据中心行业在提高数据中心的效率方面已然有了显著的进步。
说到更具体的大数据,通过采用部署Hadoop等一系列的措施,硬件效率正在改善。根据上月的一份研究报告显示。其中一个是VMware公司的最新开源Serengeti项目,使管理员能够部署在现有的硬件上部署Hadoop虚拟化。这既提高效率,同时又避免了购买新的硬件的需要。
另一个项目是Pervasive Software的DataRush产品:
DataRush和RushAnalyzer抽象出来的复杂并行Hadoop作业,能够让用户实时监控I/O和CPU使用情况,并减轻内存的限制。最终能让服务器的利用率高达80%,并且能够更迅速和反复进行大数据分析。
《纽约时报》忽略的另一点是,大部分数据分析专家结合气候变化和环境进一步进行的可持续发展研究都是由这些数据中心所支持的。例如,美国航天局所建立的气候模拟中心,建立一个自定义的大数据平台收集了多达数PB的气象资料,以更好地预测和理解全球气候变化。NCCS数据中心消耗了大量的电力,但研究人员通过大数据分析发现的却是可能导致限制或甚至扭转全球变暖的方法。我想说,这只是一个公平的交易。
当然,并不是每一个大数据项目的目标都是促进更大的利益。但有一些这样的项目,在气候科学以及医疗和教育行业。
我很赞赏《纽约时报》针对这一问题进行重点讨论。但是让我们保持现实的观点。大数据的确排放了大量的污染物在大气中,但大数据行业也正在发展更有效的计算方法,并解决一些最棘手的环境所面临的挑战,人类将有可能弥补以上任何数据中心操作,更高效的计算,将直接影响大气环境。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
探索Hadoop发行版以管理大数据
Hadoop是一种开源技术,它也是数据管理平台,现在它通常与大数据分布相关联。它的创建者在2006年设计了原始 […]
-
数据经理应该研究GPU深度学习
与AI相关的深度学习和机器学习技术已经变成大数据圈常见的讨论话题。这一趋势对于数据管理者们来说是值得关注的,原 […]
-
机器学习在崛起:但其算法的结果是否公平?
算法正在通过很多很不可思议的方法控制着我们的生活。但在没有透明度的情况下,我们很难知道机器学习算法所评估的结果是否公平……
-
速度至上:提升Apache Spark处理速度你需要这五个办法
现在,我们手里有数据,大量的数据。我们的存储中有区块、文件和对象。我们的数据库中有表、键值以及图形。还有越来越多涌进来的媒体、机器数据和事件流……