大数据难道仅仅等于大流量吗?

日期: 2012-09-20 来源:TechTarget中国

  根据一项最新的研究显示,预计在未来五年,新的和具有突破性的大数据技术将占到全球数据总量的50%以上。虽然大数据带来了巨大的可开发价值,但也必将给全球的网络基础设施带来相应的影响,迫使企业纷纷寻求管理这一爆炸性增长的数据信息。该报告探讨了大数据将如何影响企业的WAN(广域网)。

  大数据——被定义为是超越了其能力的数据集,典型的数据库软件工具捕捉、存储、管理和分析,最常见的是PB级的艾字节(exabytes)大小,是非结构化分布式和扁平架构模式。随着大数据的持续增长,行业预期其将为企业带来巨大的和未开发的价值。根据infineta的报告显示,大多数企业将在未来的12至18个月重点采用大数据技术。

  所有这些数据需要采集,存储,处理和分发,有可能堵塞网络。Hadoop管理每petabye字节的大数据大约需要0.5Gbps的带宽,Hadoop是一个大规模计算的开源平台。带宽需求可以影响企业广域网中的延迟时间、速度和可靠性。

  研究结果显示,快速发展的趋势将影响到整个数据中心行业。这些主要的发展趋势包括:

  存储价格日趋便宜。传统的数据存储运行每GB的字节成本大约为5美元,而采用Hadoop存储相同的存储量,每GB的成本仅为0.25美元。

  增强的可扩展性。Hadoop采用预付一小部分费用的形式,使企业能够添加额外的存储空间。Hadoop的可扩展性,可能会导致在未来五年内,全球50%以上的数据都存储在Hadoop环境中。

  缺乏分析。只有百分之一到百分之五的外部收集的大数据实际上是进行了分析。由于缺乏分析,有相当一部分有价值的数据被遗漏。根据麦肯锡最近报道显示,如果医疗保健行业对他们的95%的未捕获的数据进行了分析,那么估计每年将创造出3000亿美元的价值。另一个缺乏分析的例子是石油工业领域,石油钻井平台每秒产生25000个数据点,但石油企业对于这些数据的使用率仅仅只有5%。

  该报告认为,企业部署Hadoop集群提供一个集中式的服务,使个别部门不用再建立和运行自己的大数据服务,并认为当涉及到处理批量工作负载时“越大越好”。

  这种设置带来了大流量——数据在集群之间移动,在数据中心内部和数据中心之移动,包括但不限于复制和同步,这将变得尤其重要,因为Hadoop成为企业级存储的一个重要的因素。大流量移动数据服务支持大数据分析,合规性要求,高可用性服务和安全服务。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

相关推荐