谈到灾难恢复,在如今这个信息爆炸的时代是不可缺少的,每年的信息量以50%的速度递增,但IT预算却没有跟上这个增长速度,据预测,2010年IT预算增长只有一位数,因此人们开始发疯似的寻找在相同大小空间存储更多信息的方法。 信息生命周期管理(Information Lifecycle Management,ILM)采用了远程备份旧大型机的思想,当主站发生灾难时可以快速恢复,并增加了独立联机大容量存储和备份数据到基于元数据的“存储池”的概念,更准确地说,有三种存储池:“动态易变池”,刚刚到达的数据存储在这里,未来这些数据会发生变化,就好像宾馆的预定信息一样,“动态归档池”,这里存储的数……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
谈到灾难恢复,在如今这个信息爆炸的时代是不可缺少的,每年的信息量以50%的速度递增,但IT预算却没有跟上这个增长速度,据预测,2010年IT预算增长只有一位数,因此人们开始发疯似的寻找在相同大小空间存储更多信息的方法。
信息生命周期管理(Information Lifecycle Management,ILM)采用了远程备份旧大型机的思想,当主站发生灾难时可以快速恢复,并增加了独立联机大容量存储和备份数据到基于元数据的“存储池”的概念,更准确地说,有三种存储池:“动态易变池”,刚刚到达的数据存储在这里,未来这些数据会发生变化,就好像宾馆的预定信息一样,“动态归档池”,这里存储的数据基本上不会发生变化,即内容基本固定的数据,“深度归档池”,这个就和我们传统的归档想法一样了,可以看作磁带。每种池都有特定的类型和存储层设置,因此每种池的灾难恢复策略也是不一样的,管理员还必须经常处理从一种池移动到另一种池的任务。
在大型机占主导的数据中心实施ILM对灾难恢复站点非常有益,ILM可以联合高性能磁盘,为动态易变数据分配更少(相对于动态归档数据)的缓存实现性价比更好的应用程序,它可以提高大数据量的备份和恢复速度,理论上备份/恢复时间可以减少62%。它还可以减少需要备份的数据量,因为动态归档数据通常只需要备份一次。
实施ILM可以降低成本,减少灾难恢复需要的存储数量,因此可以延迟IT升级。
ILM最佳实践
但ILM使大型机存储管理员和大型机数据库管理员的工作变得更复杂了,因为存储池不止一个,服务水平协议(SLA)也不止一个了,调整存储性能需要更细致,微调存储性能的能力依赖于存储池,产生了一个扩散层,随着高性能磁盘、固态硬盘和近线磁带的出现,经过优化,SATA磁盘的成本更低,性能更好。此外,每一层都有其独特的灾难恢复镜像,管理员必须确定层的大小和位置,由于抵达数据的变化,必须每年微调一次,现在大多数大型企业至少有一个本地或一个地区性灾难恢复站点,他们必须在主动-主动或主动-被动之间做出选择,时间点复制和不断复制,保持原始数据或删除重复数据。
此外,大型机处理的数据类型发生了很大的变化,主要驱动是出现了大型机上的Linux,Linux工作负荷通常是计算密集型的,很少关注业务交易,但它也非常适合处理email,文档,基于Web的音频/视频和图像,以及类似的半结构化和非结构化大型块数据,这种数据移动到活动归档池可能更快速,但它也可能使存储大小增长过快,如果进行压缩更容易受影响,因为压缩是非常消耗计算机资源的,因此压缩会减少备份/恢复时的并发处理数量。
因此,大型机灾难恢复在ILM管理模式下包括下列步骤:
给各种类型池装配备份/恢复功能。通常,这意味着将所有动态易变的数据和某些动态归档数据主动-主动复制到本地高性能磁盘,采用主动-被动模式将部分数据复制到地区性灾难恢复站点,然后将剩下的动态归档数据采用主动-被动模式复制到本地SATA磁盘,那些更旧的数据发送到近线磁带,如果有必要,更旧的备份可以保留在磁带上。
提前定义好在池之间移动数据的策略。包括一致性,合法性验证,根据以往的经验,当数据内容固定后,系统性能会更好,灾难恢复速度会更快。
这些策略和技术组合将如何改变大型机数据,包括非结构化数据,一般来说,非结构化数据在转移到本地或远程站点时需要更快的速度,在复制之前先压缩(暂不考虑性能影响),在动态归档池中的高性能磁盘可能更好,因为大部分数据内容是固定的,而不是动态的,如果辅助站点接管,易变的数据对于用户就意味着更慢的性能。
压缩的优点
最近用户关注的压缩和重复删除技术并没有得到广泛认可,因为有人认为重复删除技术还不够成熟,存在数据丢失的风险,而压缩可能会对性能产生负面影响,而在现实世界中,压缩比也只有20-30%,没有厂商宣传的60-70%那么高。
所有这一切可能是真的,也可能不是真的,就看个人的意见了,我仍然推荐用户使用压缩和重复数据删除技术,原因如下:
- 正如前面我已经谈到的,ILM只能减少2-3年的存储压力,有效的压缩可让存储空间多用1-2年。
- 由于非结构化的数据相对于结构化数据增长速度更快,可被压缩的总数也增加了。
- 压缩不仅提高了备份/恢复速度,同时也提高了I/O速度(上传较少),过去认为压缩对性能有影响是因为解压通常是属于CPU密集型处理任务。IBM声称在DB2中使用压缩数据的速度更快,此外,最近基于列的数据库已经开始处理数据库类型数据,它没有解压操作,找到了压缩关系数据更好的方法,在大型数据仓库中性能将会得到质的提升。
- 压缩可以被看作是另一种粗放式的加密方式,数据经过压缩会安全性更好一点。
未来
在上述研究中,我也表明,只有10%的IT受访者正在改善数据中心能源利用和灾难恢复站点,这个数字太低了,存储需求每年以50%的速度递增,个人计算机的普及造成了能源的巨大消耗和浪费,据统计,它已经超过了世界能源消耗的2%,虽然个人计算机无法管理,但灾难恢复站点却有办法,如果不加以限制,后果会越来越严重。
出于这个原因,用户在做出存储采购决策时需要考虑非动态数据在断电的情况该如何使用,磁带可以用于存储非动态的数据,用户应该积极寻找断电磁盘,研究ILM存储层设计,集成到节能数据中心,并在灾难恢复站点部署能源监控工具,IBM就为大型机提供了一个能源使用监控工具。
另外一个有点远见的思考:实际上,只要保证了一致性问题,辅助站点可以演变成一个潜在的独立的在线数据中心,与此同时,安全已不再仅仅是基于防火墙和面向网络了,而是以信息为中心了,IT部门从此多了一个灾难恢复责任,需要确定辅助站点动态归档池中数据的信息安全策略,这与主站点的策略会有所不同。
总体而言,大型机用户和厂商都应该知道,灾难恢复的根本问题仍然存在,不可抗拒的力量(存储容量的增长)可能已经被ILM、压缩和节能等措施打回去了,但说不定又会在某个时候出现,我期待在未来4年内出现下一个技术飞跃:实现不间断收缩的机器。